PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Digital Vibrance für ATI! - Wieso ist es immer noch nicht da?


dysan
2005-01-27, 18:06:05
Hi,
hatte ATI nicht vor einiger Zeit angekündigt, eine Variante von nVidia´s Digital Vibration zu verfügung zu stellen ?
Ich habe seit dem nichts mehr gehört und frage mich langsam, ob ich nicht auf nVidia um steige, da mir schöne und sattere Farben lieber sind als 5 FPS mehr oder so...
Also, hat jemand genaure Details oder Informationen zum Release oder ähnliches ?

peace,
dysan

Coda
2005-01-27, 18:12:19
Es heißt Digital Vibrance. Und generell ist das eigentlich ein Anti-Feature weil es das Bild nur verschlimmbessert.

LOLmaster
2005-01-27, 18:17:37
Nein gibts nich und alle ati nutzen findes es scheiße weils nur Nvidia hat.

Tesseract
2005-01-27, 18:22:58
kleiner tipp: besorg dir einen ordentlichen monitor statt einer neuen graka ;)
Und generell ist das eigentlich ein Anti-Feature weil es das Bild nur verschlimmbessert.
besser haben und nicht brauchen, als brauchen und nicht haben.:)
abgesehen davon ist doch z.B. kontrast oder helligkeit auch nur "verschlimmbesserung" oder?
was macht das ding technisch gesehen eigentlich genau?

edit: ah, habs schon! ich wüsste aber nicht wie ich das erklären könnte :D

MarcWessels
2005-01-27, 18:32:39
Es heißt Digital Vibrance. Und generell ist das eigentlich ein Anti-Feature weil es das Bild nur verschlimmbessert.

Ack!

Iceman346
2005-01-27, 18:34:59
Nein gibts nich und alle ati nutzen findes es scheiße weils nur Nvidia hat.

Ich finds, als Nvidia Besitzer, völlig überflüssig. Hab mal damit rumgespielt, aber das wirkte irgendwie unnatürlich und nicht wirklich gut.

StefanV
2005-01-27, 19:27:42
kleiner tipp: besorg dir einen ordentlichen monitor statt einer neuen graka ;)
Dem stimm ich mal zu.

Digital Vibrance ist einfach nur shit, das die Farben irgendwie verfälscht...

Mit Digital Vibrance schauts für mich irgendwie aus, als ob das Bild etwas (zu sehr) überstrahlt ist...

suDV23
2005-01-27, 20:08:12
Ich nutze Digital Vib jetzt seit ca. 1 Monat und bin sehr zufrieden. Ist auch ne Gewöhnungssache, aber ich musste einfach Helligkeit und Kontrast meines CRT in den 60er Bereich drücken, dadurch wurden vorallem bei Spielen wie Men of Valor die Farben extrem blass, mit "DV" wirken die Farben sogar kräftiger als vorher, nicht übertrieben aber ich finde es gut so.

Coda
2005-01-27, 20:09:27
Nein gibts nich und alle ati nutzen findes es scheiße weils nur Nvidia hatIch finde es auch als nVidia Besitzer scheiße :rolleyes:

Neon3D
2005-01-27, 20:15:03
also ich bin ein fan von satten farben. die angeblich natürliche optik ist mir viel zu blas und farblos.
:popcorn:

Coda
2005-01-27, 20:23:10
Auf jeden Fall wird das Bild verfälscht. Man könnte das gleiche Ergebnis auch ohne Digital Vibrance erreichen falls gewollt.

Kladderadatsch
2005-01-27, 20:24:22
wo kann man das eigentlich im cp aktivieren?

Iceman346
2005-01-27, 21:29:22
wo kann man das eigentlich im cp aktivieren?

Unter Color Correction

Savay
2005-01-27, 21:35:26
das ganze ist nen regler in der farbkorrektur kartei :)

also ein wunder feature ist es nicht und es kann das bild auch sehr versauen...aber dezent eingesetzt ist es schlicht ne weitere möglichkeit das bild nach seinen wünschen und auf seinen monitor abzustimmen! aber wie gesagt man sollte es nur minimal verwenden

die farben werden dadurch schön satt...aber auch uU auch etwas arg quitschibunti psychedelisch grenzdebil! :cool: <-- so das der smilie hier wie die faust aufs auge passt!
naja das einzige prob an der option ist wohl nur das der regler so effektiv arbeitet...der hätte nen engeren bereich bekommen sollen. "niedrig" ist schon fast zuviel des guten

naja aber IMO braucht man schlicht weder drüber her zu ziehen und es schlecht machen gescheige denn es als uber feature loben! es ist halt da und gut... :tongue:

Xmas
2005-01-27, 21:39:40
Ich hab den Thread-Titel mal korrigiert.

Klar "verfälscht" DV die Farben - sonst hätte es ja keinen Effekt. Ob es dann letztlich als "Verfälschung" gesehen wird, hängt allerdings davon ab was auf dem Monitor erscheint. Und wenn es hilft einem alternden CRT noch ein bisschen leben einzuhauchen...
Nun gut, man kann natürlich auch die Meinung vertreten, je schneller die alten Dinger in den Müll wandern, desto besser ;)

was macht das ding technisch gesehen eigentlich genau?
Es erhöht die Farbsättigung.

Auf jeden Fall wird das Bild verfälscht. Man könnte das gleiche Ergebnis auch ohne Digital Vibrance erreichen falls gewollt.
Mit SmartShader-Effekt?

Coda
2005-01-27, 21:55:46
Auf jeden Fall wird das Bild verfälscht. Man könnte das gleiche Ergebnis auch ohne Digital Vibrance erreichen falls gewollt.Ne ich meinte den Content.
Die Leute könnten ihre Programme so überzogen gesättigt designen wenn sie es denn wollten.

Xmas
2005-01-27, 22:15:46
Ne ich meinte den Content.
Die Leute könnten ihre Programme so überzogen gesättigt designen wenn sie es denn wollten.
Nun, das würde ja dem Sinn widersprechen dass es dem Ausgabegerät angepasst sein soll. Außerdem ist es nicht zwangsläufig mathematisch dasselbe, ob man die Sättigung im Content oder bei der Ausgabe anpasst (auf 3D-Grafik bezogen).

godess
2005-01-27, 22:20:02
ich find es auch ein nettes feature, da mein monitor die farben so satt darstellt, wie ein fetter mensch satt ist, wenn er zwei wochen nix gegessen hat :rolleyes: ,
nutze ich die "farbkorrektur" sehr gern. aber wie gesagt, man darf es nich über treiben, sonst denkt man, man sei im teletubbi-land.

InsaneDruid
2005-01-27, 23:35:48
Den Monitor richtig eingestellt und schon brauch man das nich. Hab ich auch in meinen NV Tagen nie wirklich benutzt, sah einfach bäh aus.

StefanV
2005-01-27, 23:43:26
Den Monitor richtig eingestellt und schon brauch man das nich. Hab ich auch in meinen NV Tagen nie wirklich benutzt, sah einfach bäh aus.
Oder sich einfach mal 'nen ordentlichen Schirm holen und keinen '50€-Billig shit'...

Bei meinen Schirmen sahs einfach nur mies aus, wobei mein CRT auch ein recht kontrastreiches Streifenmaskenmodell ist, das von Natur aus recht hell ist...

Bei 'nem gelochten schauts ev. gar anders aus, besonders bei den preisgünstigen Mistdingern, die beim Mediamerkt und sonstwo verramscht werden...

aths
2005-01-28, 03:31:43
Und wenn es hilft einem alternden CRT noch ein bisschen leben einzuhauchen...Genau. DVC sollte im Zusammenspiel mit den anderen Korrektur-Möglichkeiten gesehen werden. Inklusive Bildschärfung und vor allem der recht frei konfigurierbaren Intensitäts-Wiedergabe je für R, G und B kann man auch alte Monis noch ganz gut korrigieren.

Es erhöht die Farbsättigung.Wobei ich noch nicht weiß, nach welchem Farbmodell (HSV oder HSL.) Wahrscheinlich eher HSL.

Resabol
2005-01-28, 08:09:59
Auf jeden Fall wird das Bild verfälscht. Man könnte das gleiche Ergebnis auch ohne Digital Vibrance erreichen falls gewollt.Leider kann man das Ergebnis von DV auf ATI nicht erreichen. Ich habe beide Hersteller im Haus und die Farben sehen auf der Nvidia mit DV imho einfach brillianter aus (wobei ich wegen der Bildschärfe lieber mit ATI arbeite).

Auf Rage3D gibt es übrigens schon seit über einem Jahr eine Petition zum Thema:
http://www.rage3d.com/board/showthread.php?threadid=33734540

(del676)
2005-01-28, 08:47:25
ich hab DV immer zirka bei 25%
ohne sieht es einfach zu blass aus (und nein, ich habe keinen billigmonitor)
ob das von den Gameherstellern so gewollt ist oder nicht ist mir herzlich egal

Neon3D
2005-01-28, 09:56:59
:tongue: ich hab DV immer zirka bei 25%
ohne sieht es einfach zu blass aus (und nein, ich habe keinen billigmonitor)
ob das von den Gameherstellern so gewollt ist oder nicht ist mir herzlich egal

ich hatte schon damals für für quake und alienquake das sturationprogramm benutzt um die farbsättigung zu erhöhen.

sieht einfach schöner aus.

Neon3D
2005-01-28, 09:57:38
:tongue: ich hab DV immer zirka bei 25%
ohne sieht es einfach zu blass aus (und nein, ich habe keinen billigmonitor)
ob das von den Gameherstellern so gewollt ist oder nicht ist mir herzlich egal

ich hatte schon damals für quake und alienquake das saturationprogramm benutzt um die farbsättigung zu erhöhen.

sieht einfach schöner aus.

Radeonator
2005-01-28, 10:26:10
Also ich habs eigentlich auch immer an. Finde absolut nicht das damit etwas "verschlimmbessert" wird, ganz im Gegenteil!

Moco
2005-01-28, 10:40:34
Schlimm siehts nur aus, wenn man es übertreibt. Selbst "mittel" ist schon zuviel! Den Regler bis kurz vor "mittel" verbessert die Bildquali hingegen deutlich!

aths
2005-01-28, 10:41:52
Also ich habs eigentlich auch immer an. Finde absolut nicht das damit etwas "verschlimmbessert" wird, ganz im Gegenteil!Hochgeregeltes DVC vernichtet Bildinformationen.

(del676)
2005-01-28, 11:00:21
Hochgeregeltes DVC vernichtet Bildinformationen.
Dezent eingesetztes DVC kann das subjektiv empfundene Bild verbessern.

Coda
2005-01-28, 11:11:04
Das ändert aber nix dran dass es Bildinformationen vernichtet...

G.a.s.t
2005-01-28, 11:16:10
Das ändert aber nix dran dass es Bildinformationen vernichtet...

Also mit DigitalVibrance wird auf meinem TFT schon bei niedrig das Weiß gelbstichig. Find ich nicht so toll.

Ich dreh am Ferseher auch nicht den Farbkontrast voll hoch weils dann so schön bunt wird.

(del676)
2005-01-28, 11:17:42
Das ändert aber nix dran dass es Bildinformationen vernichtet...
?
habe ich das wo behauptet?

aths
2005-01-28, 11:24:08
Ich hab gerade mal (auf eine Anregung von Xmas hin, wie es funktionieren könnte) DVC (für einzelne JPEG-Bilder) programmiert. Funzt tatsächlich. Konkreteres dazu in Kürze.

(del676)
2005-01-28, 11:26:54
is natürlich nur bei leuten sinnvoll die DVC ausgeschalten haben
eventuell solltest du gleich ein vergeichsbild damit machen

irgendwo ab ich noch welche von X2 rumliegen (nachgearbeitete halt)

aths
2005-01-28, 11:33:44
Dieses Programm: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=199573 (Dort ist ein DL-Link.)

- Archiv in ein neues Verzeichnis entpacken

- Exe starten

- Bild laden (JPG oder BMP auf das Fenster ziehen.)

- Rechtsklick aufs Bild, "HSV-Korrektur freischalten"

- Panel erscheint, u. a. ist dort ein DVC-Regler.

- Bildänderung ist leider nicht in Echtzeit, also nach dem Rumändern bisschen warten.


Das Programm arbeitet im Gegensatz zu NVs DVC gamma-korrekt. Um NVs (unkorrektes) DVC nachzustellen, *bevor* man in die HSL-Korrektur geht, F12 drücken. In der Mitte ist dort ein Regler für "Linearisierung der Helligkeit". Von 2,2 auf 1,0 drehen. Dann HSL-Korrektur aufrufen.

aths
2005-01-28, 11:35:07
is natürlich nur bei leuten sinnvoll die DVC ausgeschalten haben
eventuell solltest du gleich ein vergeichsbild damit machen

irgendwo ab ich noch welche von X2 rumliegen (nachgearbeitete halt)"Mein" DVC ändert nicht den Deskop, sondern ein in meiner Applikation geladenes Bild. Man kann damit aber, ohne dass man DVC hat, gucken, wie es sich auswirkt. Ich habs im Gegensatz zu NV gamma-korrekt implementiert (siehe Posting darüber, wie man es NV-mäßig macht.) "Mein" DVC scheint außerdem eine etwas größere Maximaleinstellung zu haben. Das Prinzip ist aber verwirklicht.

i4w6wi46
2005-01-28, 11:47:05
Ich habs im Gegensatz zu NV gamma-korrekt implementiert (siehe Posting darüber, wie man es NV-mäßig macht.)Und kann man das jetzt irgendwie bei ATI implementieren, z.B. über SmartShader-Effekt?

Coda
2005-01-28, 11:52:53
Smartshader geht auf jeden Fall, aber das funktioniert nicht für den Desktop.

aths
2005-01-28, 12:02:14
Und kann man das jetzt irgendwie bei ATI implementieren, z.B. über SmartShader-Effekt?Die Implementierung dürfte nicht schwer sein. Das hier ist der Delphi-Code:
procedure applydvc2(var r: float; var g: float; var b:float; dvc:float);
var mi:float;
begin
if (r=g) and (g=b) then exit;
mi:=(r+g+b)/3;
r:=max(min(r+(r-mi)*dvc,1),0);
g:=max(min(g+(g-mi)*dvc,1),0);
b:=max(min(b+(b-mi)*dvc,1),0);
end;

Coda
2005-01-28, 12:04:53
Wofür ist "if (r=g) and (g=b) then exit;" denn?

Als Performanceoptimierung ist das garantiert Kontraproduktiv.

aths
2005-01-28, 12:07:50
Wofür ist "if (r=g) and (g=b) then exit;" denn?

Als Performanceoptimierung ist das garantiert Kontraproduktiv.Zum rausspringen bei farblosen Farben.

Coda
2005-01-28, 12:09:43
Ändert das was beim Ergebnis? Sonst ist es wie gesagt ziemlich sinnlos

a) weil der Branch garantiert mehr Performance kostet als die Rechnung.
b) du bei Floating Point ziemlich geringe Trefferquoten haben wirst bei direkten Vergleichen ohne Epsilon.

aths
2005-01-28, 12:18:54
Ändert das was beim Ergebnis? Sonst ist es wie gesagt ziemlich sinnlosFunktioniert auch ohne Abfrage. Dass DVC im Programm so lange zur Berechnung braucht liegt daran, dass das in eine HSL-Korrektur eingebettet ist. Das gesamte RGB-Material wird (approximiert) als sRGB interpretiert, dann nach HSL umgerechnet und gespeichert. Auf das HSL-Bild wird dann die HSL-Korrektur angewendet, zurück nach RGB gerechnet und Gamma 1/2,2 appliziert. Vor der Gamma-Rekorrektur hab ich halt noch DVC eingefügt. Da der ganze Rest aber auch immer mitgemacht wird, dauert das sowieso recht lange.

Coda
2005-01-28, 12:22:18
Mag ja sein, aber solche Branches solltest du trotzdem vermeiden :rolleyes:

dysan
2005-01-29, 01:34:12
Ich denke es heisst "Digital Vibration" ,... wahrscheinlich auch nicht.... :)

Ist zwar schön, dass alle ihre Meinung zum Thema schöne Farben und so abgelassen haben, aber auf meine Frage hat mir niemand geantwortet !!!

peace

Ailuros
2005-01-29, 04:18:53
Ich denke es heisst "Digital Vibration" ,... wahrscheinlich auch nicht.... :)

Ist zwar schön, dass alle ihre Meinung zum Thema schöne Farben und so abgelassen haben, aber auf meine Frage hat mir niemand geantwortet !!!

peace

Es steht klipp und klar Digital Vibrance im ForceWare CP drin, wenn Du immer noch Zweifel haben solltest; es geht um "Farben-lebendigkeit" und nicht um irgend ein vibrierendes Geraet :|

Xmas
2005-01-29, 04:19:55
Es heißt Digital Vibrance Control, und "Digitale Schwingungen" im deutschen Panel ist ein Übersetzungsfehler.

Und wenn auf "Hat jemand Informationen zum Release" keiner antwortet, musst du das wohl so interpretieren dass keiner Informationen dazu hat ;)

Neon3D
2005-01-29, 11:40:11
Ich hab gerade mal (auf eine Anregung von Xmas hin, wie es funktionieren könnte) DVC (für einzelne JPEG-Bilder) programmiert. Funzt tatsächlich. Konkreteres dazu in Kürze.

schöne sache. nur wäre es cooler wenn es für dx klappen würde.

BerndJazz
2005-01-29, 12:42:03
Hallo,
als Info kann ich nur anbieten was CATALYSTmaker (Chef der Treiberentwickler bei ATI) in einem Beitrag auf DriverHeaven
( http://www.driverheaven.net/showthread.php?t=65883&page=3&pp=15 ) kurz vor dem Realese es Cat 5.1 gesagt hat:

well what can i tell you about 5.1's?
-it wont have digitial vibrance (whatever that is) as suggested on these forums

Ich würde sagen das wird es bei ATI also nicht geben. Ich persönlich vermiße es glücklicherweise auch nicht.

MfG

BerndJazz

aths
2005-01-29, 13:34:00
schöne sache. nur wäre es cooler wenn es für dx klappen würde.Ginge mit einer Smartshader-Effektdatei. Allerdings kann ich solche Dateien nicht schreiben. Und ich bezweifle den Nutzen von DVC.

Leonidas
2005-01-29, 14:34:15
Hi,
hatte ATI nicht vor einiger Zeit angekündigt, eine Variante von nVidia´s Digital Vibration zu verfügung zu stellen ?
Ich habe seit dem nichts mehr gehört und frage mich langsam, ob ich nicht auf nVidia um steige, da mir schöne und sattere Farben lieber sind als 5 FPS mehr oder so...
Also, hat jemand genaure Details oder Informationen zum Release oder ähnliches ?

peace,
dysan



Nur für mich persönlich ist dies das wichtigste Feature für Grafikkarten. Ich bau in meinen Arbeitsrechner nur aus diesem Grund ausschließlich NV-Karten ein, selbst wenn das niedrigere Performance bedeutet. Sollte sich also ATi wirklich mal überlegen.

PS: Das ich trotzdem unparteiisch über ATi/NV schreiben kann, sollte man daran ablesen können, daß ich das Fehlen von Digital Vibrance ATi niemals als Minus-Punkt angerechnet habe. Das Feature ist im genauen auch nur ein einziges Mal in einem Jahre zurückliegenden Review erwähnt worden.

Leonidas
2005-01-29, 14:36:43
Mit Digital Vibrance schauts für mich irgendwie aus, als ob das Bild etwas (zu sehr) überstrahlt ist...


Man darf DC nicht übertreiben. Die meisten probieren wohl gleich die Max-Einstellung und fällen dann ein Urteil. Jedoch macht DC am meisten Sinn in der Min-Einstellung. Es gibt etwas mehr Farbe, ohne großartig an der Helligkeit/Intensität etwas zu ändern.

PS: Und mit den üblichen RGB-Schaltern ist so etwas unmöglich hinzubekommen.

DaBrain
2005-01-29, 14:49:46
Digital Vibrance ist absolut nicht sinnlos.

Auf meinem alten 15" Monitor, den ich zu der Zeit auf Lans mit genommen habe, hat das echt noch was gebracht. Außerdem konnte man es auf der mittleren Einstellung auch gut für ZSNES einsetzen. ;)


Wer sich allerdings wirklich mit Farben auskennt, wird sich ein Farbprofil erstellen.
Einige die hier DV verteufeln, benutzen bestimmt vorgefertigte Farbprofile, oder noch schlimmer - Das Windows Standartprofil, das DER Farbverfälscher schlechthin ist!
Da spielt es dann auch kaum noch eine Rolle was für einen tollen Monitor man hat, oder ob DV an ist.

Der N0rG
2005-02-02, 18:44:59
ich hatte sehr lange eine nv karte und hab mir jetzt eine ati geholt weil die DV angeündigt haben und weil die weniger strom braucht als gleichwertige nv modelle...
an alle die farben schei*e finden ---> macht doch mal den smartshadereffekt schwarz-wiess an und spielt irgentwas was mit schnellen bewegungen zu tun hat (Need for speed, ut, quake ect.) und sagt dann nochmal farben sind schei*e

Und wer denkt das bekommt man auch jetz schon schön bunt mit den reglern die dabei sind ---> könnta knicken ´das macht das bild ers richtig kaputt.

dann hab ich oben noch irgentwas mit dv vernichtet bildinformationen gelesen...
AA vernichtet auch bildinfos also coda immer schön aa aus lassen

MfG

Coda
2005-02-02, 18:51:36
AA vernichtet auch bildinfos also coda immer schön aa aus lassenIm Gegenteil, die Informationsdichte wird durch AA und AF erhöht. (außer man hat ne Volari). AA ist kein Blur.

Und kauf dir mal paar Satzzeichen. :rolleyes:

InsaneDruid
2005-02-02, 18:54:48
Evtl sollte man sich informieren bevor man sowas postet.

Seit wann vernichtet AA Bildinformationen? Das Gegenteil ist der Fall. Es werden zusätzliche Informationen in das Bild hineingerechnet.

Außerdem geht es nicht um "keine Farben", sondern um KORREKTE Farben, und keineswegs um "schön bunt".

aths
2005-02-02, 20:10:37
Digital Vibrance ist absolut nicht sinnlos.

Auf meinem alten 15" Monitor, den ich zu der Zeit auf Lans mit genommen habe, hat das echt noch was gebracht. Außerdem konnte man es auf der mittleren Einstellung auch gut für ZSNES einsetzen. ;)

[QUOTE=DaBrain]
Wer sich allerdings wirklich mit Farben auskennt, wird sich ein Farbprofil erstellen.
Einige die hier DV verteufeln, benutzen bestimmt vorgefertigte Farbprofile, oder noch schlimmer - Das Windows Standartprofil, das DER Farbverfälscher schlechthin ist!
Da spielt es dann auch kaum noch eine Rolle was für einen tollen Monitor man hat, oder ob DV an ist.Standard bitte mit d hinten.

Was ist am Windows Standardprofil denn farbverfälschend?

aths
2005-02-02, 20:14:05
ich hatte sehr lange eine nv karte und hab mir jetzt eine ati geholt weil die DV angeündigt haben und weil die weniger strom braucht als gleichwertige nv modelle...
an alle die farben schei*e finden ---> macht doch mal den smartshadereffekt schwarz-wiess an und spielt irgentwas was mit schnellen bewegungen zu tun hat (Need for speed, ut, quake ect.) und sagt dann nochmal farben sind schei*e

Und wer denkt das bekommt man auch jetz schon schön bunt mit den reglern die dabei sind ---> könnta knicken ´das macht das bild ers richtig kaputt.

dann hab ich oben noch irgentwas mit dv vernichtet bildinformationen gelesen...
AA vernichtet auch bildinfos also coda immer schön aa aus lassen

MfGAA vernichtet keine Bildinformationen, sondern fügt welche hinzu. Vernichtet (in einem gewissen Maße) werden Bildfehler.

Nur weil man es lieber farbig als schwarz/weiß hat heißt das nicht im Umkehrschluss, den du offenbar ziehst, dass maximale Farbigkeit wünschenswert wäre.

Wo hat ATI jemals Digital Vibrance angekündigt?

LordDeath
2005-02-02, 20:19:37
hat denn jemand schonm mal sich angeschaut, ob diese funktion die spieleperformance beeinträchtigt?

aths
2005-02-02, 20:40:25
hat denn jemand schonm mal sich angeschaut, ob diese funktion die spieleperformance beeinträchtigt?Warum sollte das die Performance beeinträchtigen? Zumal DVC eine reine "2D"-Funktion ist?

LordDeath
2005-02-02, 21:00:20
Warum sollte das die Performance beeinträchtigen? Zumal DVC eine reine "2D"-Funktion ist?

tja, wenn ich das wüsste, hätte ich nicht gefragt ;)

aths
2005-02-02, 21:14:27
tja, wenn ich das wüsste, hätte ich nicht gefragt ;)DVC gibts seit GeForce2 MX (also nicht auf der GeForce2 GTS/Pro/Ultra, dann aber seit GF3 wieder auf Highend-Karten.) Ich bin ziemlich sicher, dass die "DVC-Einheit" sehr weit hinten sitzt, da man es nur global auf den gesamten Bildschirm anwenden kann. Sogar das Overlay wird davon beeinflusst. Das heißt, am Framebuffer wird noch nix gemacht. Also wirds wohl erst beim reim RAMDAC-Readout appliziert. Wie "Bildschärfung" (seit GeForce FX) wohl auch.

LordDeath
2005-02-02, 21:19:48
ist zwar offtopic, aber gibs die ne möglichkeit, vergleichsshots dieser bildschärfung zu machen? weil ich hab das feature noch nie in aktion gesehen und kenne niemanden mit ner geforce fx karte!

aths
2005-02-02, 21:44:12
ist zwar offtopic, aber gibs die ne möglichkeit, vergleichsshots dieser bildschärfung zu machen? weil ich hab das feature noch nie in aktion gesehen und kenne niemanden mit ner geforce fx karte!Da der Framebuffer nicht geändert wird, kann man auch keine Screenshots machen.

Wirkung: Ein verschliffenes Signal (schlechter Adapter, altersschwacher Monitor) wird wieder bisschen aufgepeppt. Allerdings treibt man da den Teufel mit dem Beelzebub aus.

_seBIGbos_
2005-02-02, 22:07:41
Schade, ich habs auf meiner alten FX5600 (nicht fragen;Notkauf :) ) immer in CS genutzt (in Verbindung mit hoher Gamma verschaffts gute Sicht ;) und ab und zu auch in manchen Games.
Ich würds begrüßen, wenn ATI dat irgendwann mal einbauen würde, vermissen tu ichs aber nich.

dysan
2005-02-03, 17:08:15
*grübel* seit ihr verplant oder nicht ? das is mal ne krasse frage !!! :confused:

Kann sich jemand an mein Thema erinnern ? Wie super gut und effektiv ihr alle in der lage ward, mir ÜBERHAUPT GAR NICHT zu antworten ! Respekt, dass schafft nur ihr .... *thumbs-up*

peace ;D

BerndJazz
2005-02-03, 18:46:46
@dysan
Gut, vier Seiten die sich fast gar nicht um eine direkte Antwort auf deine Frage bemühen sind schon heftig. Wenn du aber mal die Beiträge Nr.49 und Nr.58 liest sollte deine Frage ausreichend beantwortet sein.

MfG

BerndJazz

DaBrain
2005-02-03, 23:26:04
[QUOTE=DaBrain]Digital Vibrance ist absolut nicht sinnlos.

Auf meinem alten 15" Monitor, den ich zu der Zeit auf Lans mit genommen habe, hat das echt noch was gebracht. Außerdem konnte man es auf der mittleren Einstellung auch gut für ZSNES einsetzen. ;)



Was ist am Windows Standardprofil denn farbverfälschend?

Jedes Gerät, ob nun Drucker oder Monitor, hat seine eigene Farbbalance. Mein TFT hat(te) z.B. ein Problem mit Magenta. Das Windows Farbprofil hat alle Farben vie zu extrem uberzeichnet. Nachdem ich mir ein Frabprofil erstellt hatte, dachte ich zu erst, dass alles zu blass ist. Allerding habe ich schnell festgestellt, dass ich vorher nur Falschfarben hatte.

Fotos sahen jetzt besser aus. Vorallem aber konnte ich jetzt Farbunterschiede sehen, die vorher nicht sichtbar waren.

Ich hatte da ein Bild, von dem ich immer dachte, dass der Hintergrund komplett schwarz ist. Denn so sah es aus. Mit dem 'richtigen' Profil, aber konnte man sehen, dass da eine klare harte Linie zwischen einem dunklen Blau und Schwarz war.


Die mitgelieferten Profile sind meistens besser, da sie ungefähr an die Eigenarten der Monitore angepasst sind. Perfekt sind sie aber noch lange nicht.

Tesseract
2005-02-04, 00:38:02
Jedes Gerät, ob nun Drucker oder Monitor, hat seine eigene Farbbalance. Mein TFT hat(te) z.B. ein Problem mit Magenta.

das ist ja auch kein geheimnis. aber das erklärt nicht warum das windows-farbprofil verfälschen sollte. nur weil es nicht speziell die unzulänglichkeiten deines monitors korrigiert? zeig mir bitte ein farbprofil das auf jeder peripherie stimmt. :|

DaBrain
2005-02-04, 11:23:34
Es gibt kein Profil was zu jedem Gerät passt!

Einzige Möglichkeit die bleibt:
Ein speziell an den Monitor angepasstes Profil, wie ich schon geschrieben habe.
Und damit meine ich nich ein and die Monitor Reihe angepasstes Profil, sondern an ein speziell an einen einzelnen Monitor angepasstes.

Ich verstehe deine Frage nicht ganz. Ich habe nie behauptet, dass es ein 'allgemein passendes' Profil gibt.

Du hast doch schon eine Antwort geliefert:
Da das Profil nicht zu den Farben des Monitors passt, hat man Flaschfarben.

Tesseract
2005-02-04, 13:57:08
Es gibt kein Profil was zu jedem Gerät passt!

eben weil es kein allgemein richtiges profil gibt kann man beim standardprofil nicht von farbverfläschung sprechen. nicht das profil verfälscht, sondern der monitor. die behauptung das standardprofil verfälscht die farben ist deswegen nicht korrekt. genau darum ging es mir.

um dem standardprofil verfälschung vorzuwerfen müsste es unbegründete farbabweichungen liefern was es afaik nicht tut.

DaBrain
2005-02-04, 16:41:48
Ich rede natürlich von den Farben die man am Ende sieht.
Ob man nun den Monitor dafür verantwortlich macht, dass er nicht dem Windows Farbprofil entspricht, oder das Windowsfarbprofil dafür verantwortlich macht, dass es nicht zum Monitor passt, kann man sehen wie man will.


Fakt ist: Es ist praktisch unmöglich mit dem Windows Profil ordentliche Farben zu bekommen. Da man die Eigenarten des Monitors nicht ändern kann, das Farbprofil aber schon, denke ich, dass man die User, die Digital Vibration als Falschfraben Erzeuger abtun, während sie selber was Standard Profil benutzen, zurecht kritisieren kann.

Coda
2005-02-04, 16:46:25
Soweit ich weiß wendet Windows standardmäßig einfach gar kein Farbprofil an.

DaBrain
2005-02-04, 16:49:46
Auch wenn im Farbprofil Fenster kein Profil aufgelistet ist, wird das Standard Profil benutzt.

Windows liefert eine kleine Auswahl an Profilen mit.

Coda
2005-02-04, 16:52:02
Nicht wirklich. Die Farbprofile ändern Gamma, Brightness und Kontrast und die sind normal immer auf 100%.

Ga.st
2005-02-04, 16:54:17
...
Fakt ist: Es ist praktisch unmöglich mit dem Windows Profil ordentliche Farben zu bekommen. Da man die Eigenarten des Monitors nicht ändern kann, das Farbprofil aber schon, denke ich, dass man die User, die Digital Vibration als Falschfraben Erzeuger abtun, während sie selber was Standard Profil benutzen, zurecht kritisieren kann.


Durch DVC werden Informationen "unwiederbringlich vernichtet". Von daher ist der Zusammenhang nicht ganz klar.

mustafa
2005-02-14, 04:54:35
Oder sich einfach mal 'nen ordentlichen Schirm holen und keinen '50€-Billig shit'...

nana, mein samsung syncmaster 750p hat gebraucht 50 € gekostet und ich finde den monitor echt toll. satte farben, gute einstellmöglichkeiten. also nix gegen 50€-monitore.

edit: wer es schön bunt haben will: far cry ;D

dysan
2005-02-18, 12:57:42
Öhm... noch mal für alle ! Ich muss mich so ziemlich Entschuldigen, da meine Überschrift falsch war !!! Ich meine, ich habe es zwar auch scho längst gepostet, aber manche haben den Fehler wohl noch nicht erkannt :

Digital Vibrance = nVidia´s Digital Vibration

ich hatte mich lediglich verschrieben ! Tut mir Leid ;(
Doch die meisten haben es wohl sowieso richtig verstanden !!!
Nur der ATI-Treibermeister nicht, dem , wie in Eintrag 49, nichts von dem bekannt ist !!! Als Ati-Treiberentwickler hätte man wenigstens drauf kommen können was gemeint ist, oder ? :)

Und es soll Radeotion oder so heisse, was übrigen von ATI vor MONATEN bekannt gegeben wurde !!!

peace !!!

Gast
2010-08-09, 15:52:00
Es heißt Digital Vibrance. Und generell ist das eigentlich ein Anti-Feature weil es das Bild nur verschlimmbessert.

5 Jahre alt,...egal! Nein, Vibration, hab den Thread selbst erstellt und mich in der Themaüberschrift verschrieben, hehe.

Malabolge
2010-08-10, 12:13:06
Seltsam das ausgerechnet ein paar "BQ"-Fetisischten hier für DV plädieren.
Überall "Augenkrebs" attestieren, aber "überstrahlte" Farben sind Schick

BTW : es gibt auch noch eine teurere Variante, ist aber nicht überall erhältlich :

LSD :wink: (THC scheint auch zu funktionieren !;D) um die Farben aufzupeppen :biggrin:

MiamiNice
2010-08-10, 12:30:29
Me hat es immer (schon min. seit GF4 Zeiten) auf 25 -33% stehen. Könnte mir spielen oder arbeiten (kein PS oder so) ohne die Funktion gar nicht vorstellen weil mir einfach vieles zu farblos ist. Gerade Hintergrungbilder oder meine Games. Es muss einfach Farbe haben. Wusste gar nicht das ATI so eine Funktion nicht hat. Noch ein Grund für mich der stark gegen eine Karte aus diesem hause spricht.

LSD (THC scheint auch zu funktionieren !) um die Farben aufzupeppen

Auf ersterem kann man nicht arbeiten/spielen, zumidnest nicht "anständig" und letzeres funktioniert nicht, wie auch -.-

PulsarS
2010-08-10, 12:45:03
Digital Vibrance verfälscht die Farben.
Wie man sowas auch noch gutfinden kann, ist mir ehrlich gesagt schleierhaft.
*schulterzuck*
Wenn man auf Bonbongrafik steht, dann kann man die Farben aber auch ohne Digital Vibrance einfach im Farbprofil ändern.
Geht bei ATI und NV problemlos. ;)

mrt
2010-08-10, 12:50:32
Welche Leute tun sich den Rotz bitte freiwillig an? Wollen die keine natürlichen Farben?

Gast
2010-08-10, 12:52:20
Wer flimmernde Texturen, Transparenze und TN Panels gutfindet wird auch das bisschen weitere Verfälschung begrüßen.

mrt
2010-08-10, 12:54:50
Lieber flimmernde Texturen auf GF7-Quality Niveau (!) als ein so extrem verfälschtes Bild.

MiamiNice
2010-08-10, 12:59:14
Blub?

Hugo78
2010-08-10, 13:34:31
Es gibt durchaus Monitore, die sind so farbschwach, da lohnt es sich 5-10% DV drauf zugeben.
Mehr ist tatsächlich Augenkrebs, aber wie hier schon geschrieben wurde, lieber ein Feature haben und es nicht brauchen, als andersrum.

Iruwen
2010-08-10, 13:59:38
Auf dem Desktop sehen 10% DV nach meinem Geschmack auch besser aus. In Spielen würd ichs nicht benutzen. Es sieht scheiße aus wenn mans zu hoch dreht, logisch. Stellt ja auch keiner die anderen Optionen auf Maximum. Ist imo eine "man liebt es oder man hasst es" Einstellung.

Gast
2010-08-10, 14:28:35
http://www.chip.de/artikel/NVidia-Geforce-2-MX-2_12845058.html

sry,aber auch bei ner ATI kann ich die einzelnen farbkanäle unter den monitor einstellungen verändern.. bissel mehr gamma auf red/grün/blau sollte den gleichen effekt haben.

Iruwen
2010-08-10, 14:57:58
Weiß man überhaupt was DV genau tut? So einfach kann ich das Resultat nicht reproduzieren.

LieberAal
2010-08-10, 21:20:59
Das erzeugt digitale Vibrationen, die die Gehinwindungen Farbenblinder derart durcheinander schnuddeln, dass sie meinen, sie sehen Farben. Leider werden Normalsehende davon erstens blind und zweitens dumm, so dass sie ersteres nicht merken. Jeder technologische Fortschritt hat eben seinen Preis.

Gast
2010-08-10, 21:33:37
Wer sowas aktiviert muss tatsächlich farbenblind sein.
Es werden ja nicht mehr sondern weniger Farben dargestellt.
Bei einem schnellen Shooter kann das den Sieg kosten.

Coda
2010-08-10, 21:48:04
Digital Vibrance ist wohl eh nur ein vom Marketing umbenannter Farbsättigungsregler. Naja, wem's gefällt.

Spasstiger
2010-08-10, 21:51:06
ATI hatte "Digital Vibrance" schon bevor es diesen Thread gab. Nur hat ATI keinen fancy Namen dafür erfunden. Einfach in den DVI/HDMI/Display-Port-Optionen nach dem Farbsättigungsregler suchen, fertig. Digital Vibrance macht nichts anderes.
Der Unterschied zur Sättigungsoptionen unter "Desktop" ist, dass nur die Ausgabe stärker gesättigt ist, nicht aber das gerenderte Bild. D.h. Screenshots sehen normal aus.

PulsarS
2010-08-10, 21:55:09
Digital Vibrance ist wohl eh nur ein vom Marketing umbenannter Farbsättigungsregler. Naja, wem's gefällt.
Nun ja, das wird wohl recht vielen gefallen, wenn ich mir ansehe, wie die meisten ihre TVs eingestellt haben.
Bonbonfarben durch eine überzogene Farbsättigung und dadurch auch sehr hässliche Farbübergänge. Das Bild wird dadurch bei einer homogenen Farbverteilung deutlich weniger scharf, und das deutlich sichtbar.

Für mich ist das nichts. :D

InsaneDruid
2010-08-10, 22:51:54
in der aktuellen Version ist es ja auch als desaturation tool zu benutzen, was bei einigen games manchmal garnicht sooo übel rüber kommt.

hq-hq
2010-08-16, 11:07:52
als es bei mir noch "digitale schwingung" hiess hab ich es generell genutzt
auf niedriger stufe. der grund war einfach, die 2ms tft's haben leider nur
blasse farben. lieber etwas bunter und verfälschter als blass und kraftlos.
- ok heute gibts die natürlich mit erweitertem farbraum ;)

ich habe das bei meiner 2900pro sehr vermisst!
(das mit der farbsättigung hab ich dann auch probiert, war irgendwie nicht das gleiche aber ne alternative)

heute ist es nicht mehr wichtig das mein lcd tv farbenfroh ist:freak:

Coda
2010-08-16, 15:37:03
"Blass" ist Ansichtssache. sRGB ist nunmal das worauf der Content ausgelegt ist.

aths
2010-08-17, 16:09:25
Digital Vibrance ist wohl eh nur ein vom Marketing umbenannter Farbsättigungsregler. Naja, wem's gefällt.Digital Vibrance zerstört bereits stark gesättigte Farben. Digital Vibrance funktioniert so: Er berechnet den durchschnittlichen Unterschied pro RGB-Kanal für den Grauwert, wobei bei der Grauwert mit gleicher Gewichtung für alle Kanäle berechnet wird. Diesen Unterschied vergrößert er dann. Da laufen schnell mal einzelen Farbkanäle in den Bereich in denen die GPU clampen muss.