PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : DisplayPort


M2-Master
2005-09-06, 16:07:15
Ja wie der Titel es schon zeigt soll hier mal über den neuen Anschluss für Digitale
Bildschirme diskutiert werden,der hier beschrieben ist:http://www.golem.de/0508/39955.html
Was haltet ihr davon ? Also ich glaube der Haken liegt in der Sache das damit wie bei HDMI mit HDCP ein Kopierschutz eingeführt wird oder bin ich da falsch informiert ?

Mark
2005-09-06, 16:16:13
Dabei ist der DisplayPort als offener Industriestandard angelegt und soll vor allem die Adaption von geschützten High-Definition-Inhalten fördern, denn der DisplayPort wird optional Funktionen zum Schutz von Inhalten mitbringen.

damit ist die sache für mich schon gestorben. ebenso skeptisch steh ich dem ganzen hdmi zeug gegenüber, irgendwann wird es nichtmal mehr möglich sein das tv-programm aufzunehmen

M2-Master
2005-09-06, 19:23:59
Ja und das ist genau der Schritt in die falsche Richtung.Die Filmindustrie (und andere Medienindustrien) wissen gar nicht was sie da anrichten,wenn alles nur noch eingeschränkt funktioniert und man nicht einmal Sendungen aufnehmen kann,die eh nicht raubkopiert werden,weil es da nichts zu raubkopieren gibt.
Aber das Ziel ist der Filmindustrie ist ja klar,sie wollen einfach volle Kontrolle.Man soll den Film nicht bei Pro Sieben aufnehmen,nein man soll ihn sich für 30 Euro kaufen.Der Kopierschutz vor Raubkopien ist eigentlich nur ein Nebeneffekt.
Hart aber gerecht diese Kritik :).

Black-Scorpion
2005-09-06, 19:31:22
Wer sagt das du nicht aufnehmen kannst?

M2-Master
2005-09-06, 20:37:56
Hab ich gelesen.
Das passt der Filmindustrie überhaupt nicht ins Konzept.
Wie ich halt geschrieben habe.

up¦²
2007-04-19, 14:47:44
Eine interessnte Neuigkeit: DisplayPort to Support Fiber Optic Cables (http://www.dailytech.com/Article.aspx?newsid=6966)

Wäre doch klasse, wenn dann nichts mehr "stört", oder?

MechWOLLIer
2007-04-19, 17:21:30
Über DVI gibts auch HDCP, also wollt ihr nun alle nur noch den Bildschirm per D-SUB an die Grafikkarte anschließen?

Gast
2007-04-19, 18:37:53
Ganz ehrlich, den Displayport können sie sich sonstwohin schieben!

Der ist einfach nicht geeignet für so eine große Branche wie es die Computerindustrie ist.

Stattdessen hätte man einen quelloffenen Standard entwerfen müssen, der Auflösungen von (mindestens) 2560x1600 über einen Port bieten kann und auf unnötigen Schnickschnack wie HDMI/HDCP verzichtet.

Denn ganz nebenbei: Nicht nur der Kopierschutzt gängelt die Kunden, bei jedem Grafik und Monitorkauf bezahlt man den Kopierschutz noch mit! Eine Frechheit!

FlashBFE
2007-04-23, 19:35:43
Mir ist der Standard zu schwach. Von der Datenrate her ist Display Port nur doppelt so schnell wie DL-DVI. Das mag für die jetzigen Monitore erstmal reichen, aber irgendwann wollen dann auch mal mehr als 24 Bit/Pixel befördert werden und dann ist die Leitung wieder zu schwach für hohe Auflösungen und Bildwiederholfrequenzen. Aber immerhin ist ja für Displayport 2.0 schon die nächste Geschwindigkeitserhöhung angekündigt und bis dahin wird wahrscheinlich der DP sowieso noch keinen Marktanteil haben.

Windi
2007-04-23, 20:26:07
Mir ist der Standard zu schwach. Von der Datenrate her ist Display Port nur doppelt so schnell wie DL-DVI. Das mag für die jetzigen Monitore erstmal reichen, aber irgendwann wollen dann auch mal mehr als 24 Bit/Pixel befördert werden und dann ist die Leitung wieder zu schwach für hohe Auflösungen und Bildwiederholfrequenzen. Aber immerhin ist ja für Displayport 2.0 schon die nächste Geschwindigkeitserhöhung angekündigt und bis dahin wird wahrscheinlich der DP sowieso noch keinen Marktanteil haben.
Der Displayport scheint ja für die heutige Zeit mehr als ausreichend zu sein. Und solange der Displayport 2.0 abwärtskompatibel bleibt, sehe ich da keine Probleme.
Am interressantesten finde ich aber die Möglichkeit Sound übertragen zu können. ATI will ja anscheinend eine Mini-Soundkarte mit auf die Grafikkarte packen, um möglichst simpel den Ton über die HDMI Schnittstelle und später den Displayport übertragen zu können. Mit etwas Glück kann man damit nicht nur den Ton von DVDs und BDs abspielen, sondern auch Spielsound und dergleichen.
Endlich hätte man eine einheitliche digitale Schnittstelle für jegliche Art von Sound :smile:

DanMan
2007-08-12, 20:04:17
Mir ist der Standard zu schwach. Von der Datenrate her ist Display Port nur doppelt so schnell wie DL-DVI. Das mag für die jetzigen Monitore erstmal reichen, aber irgendwann wollen dann auch mal mehr als 24 Bit/Pixel befördert werden und dann ist die Leitung wieder zu schwach für hohe Auflösungen und Bildwiederholfrequenzen. Aber immerhin ist ja für Displayport 2.0 schon die nächste Geschwindigkeitserhöhung angekündigt und bis dahin wird wahrscheinlich der DP sowieso noch keinen Marktanteil haben.
So sehe ich das auch. Für HDR-Darstellung ist die Datenrate nämlich noch längst nicht genug. Wozu also überhaupt zum jetzigen Zeitpunkt eine neue Schnittstelle? Richtig - nur zur Verwirrung und Ausbeutung der Kundschaft...

Gast
2007-08-18, 23:50:54
Ich würde mich sehr freuen,wenn dann in hohen Auflösungen die 60Hz-Schranke fallen würde.Habe keine Lust,schnelle Shooter bei eingeschalteter Synchronisation mit 60Fps zu zocken.

PatkIllA
2007-08-18, 23:58:39
Eine interessnte Neuigkeit: DisplayPort to Support Fiber Optic Cables (http://www.dailytech.com/Article.aspx?newsid=6966)

Wäre doch klasse, wenn dann nichts mehr "stört", oder?
Gab es bei DVI auch von Anfang an.
Und wer von euch will denn was am DVI aufnehmen? Da kann man die Daten doch besser 3 Stufen vorher abgreifen.

Benedikt
2007-08-19, 12:35:00
Gab es bei DVI auch von Anfang an.
Und wer von euch will denn was am DVI aufnehmen? Da kann man die Daten doch besser 3 Stufen vorher abgreifen.
Ich frage mich sowieso, wovor die Filmindustrie Angst hat: Filmpiraten greifen doch niemals Monster-Datenströme über DVI ab (um diese dann in vernünftig speicherbare Größen zu komprimieren), sondern nutzen andere einschlägig bekannte Tauschbörsen-Programme!? Und wenn man die verschlüsselte Anzeigekette mit unverschlüsseltem Material füttert, ist doch sowieso der ganze Aufwand für'n Hugo gewesen.

SavageX
2007-08-19, 12:46:17
So sehe ich das auch. Für HDR-Darstellung ist die Datenrate nämlich noch längst nicht genug. Wozu also überhaupt zum jetzigen Zeitpunkt eine neue Schnittstelle? Richtig - nur zur Verwirrung und Ausbeutung der Kundschaft...

Mal eine gaaaanz dumme Frage: Welches Display kann denn bitte HDR darstellen? Warum genau soll diese Information bis zum Bildschirm geschleppt werden? Willst Du wirklich "echtes", physikalisches HDR - komplett mit Helligkeiten jenseits vom Standard (255,255,255)-Weiss, auf das man normalerweise die Helligkeit einstellt?

TheGoD
2007-08-19, 14:01:20
Endlich hätte man eine einheitliche digitale Schnittstelle für jegliche Art von Sound :smile:

Diese gibt es ja mit HDMI bereits. Ich seh auch keinen großen Nutzen in einer neuen Schnittstelle mit fast gleicher Bandbreite.

Mastermind
2007-08-19, 15:37:55
Ich möchte mich zu denjenigen gesellen, die sich mehr Bandbreite gewünscht haben. Schließlich geht es hier um einen sehr grundlegenden Standard zur Datenübertragung. Eine Verdoppelung ist hier alles andere als berauschend. Wenn man von doppelter Farbtiefe und UHDV ausgeht, dann bräuchte der Standard schon mal locker das Zwanzigfache von DL-DVI. :tongue:

PatkIllA
2007-08-19, 15:40:48
Das mit der Bandbreite kann man doch nachher noch nachschieben.
Ich kenne überhaupt kein Gerät was mehr als 8Bit pro Kanal ausgeben oder annehmen kann, obwohl es da schon einen Standard gibt.

DanMan
2007-08-19, 20:57:51
Mal eine gaaaanz dumme Frage: Welches Display kann denn bitte HDR darstellen? Warum genau soll diese Information bis zum Bildschirm geschleppt werden? Willst Du wirklich "echtes", physikalisches HDR - komplett mit Helligkeiten jenseits vom Standard (255,255,255)-Weiss, auf das man normalerweise die Helligkeit einstellt?
Noch keines, darum gibt es ja auch noch keinen Grund für den DisplayPort mMn.

SavageX
2007-08-20, 07:48:23
Noch keines, darum gibt es ja auch noch keinen Grund für den DisplayPort mMn.

Ich denke, wir können noch laaange warten, bis echte HDR-Monitore auf uns einstürmen. Die wären nämlich Augenkrebs pur. Schließlich würden alle "normalen" Anwendungen als hellste Farbe das normale "(255,255,255)"-Weiss nutzen (z.B. eine Textverarbeitung als Hintergrund), so dass man darauf seine normale Helligkeit einstellen würde (so, dass es angenehm ist). Wenn man nun eine HDR-Anwendung startet und jemand eine Blendgranate wirft...

Wer auf sowas scharf ist, der kann das schon heute mit wenig Aufwand einfach in den Videobeamer starren...

DanMan
2007-08-20, 08:24:52
Ich denke, wir können noch laaange warten, bis echte HDR-Monitore auf uns einstürmen. Die wären nämlich Augenkrebs pur. Schließlich würden alle "normalen" Anwendungen als hellste Farbe das normale "(255,255,255)"-Weiss nutzen (z.B. eine Textverarbeitung als Hintergrund), so dass man darauf seine normale Helligkeit einstellen würde (so, dass es angenehm ist). Wenn man nun eine HDR-Anwendung startet und jemand eine Blendgranate wirft...

Wer auf sowas scharf ist, der kann das schon heute mit wenig Aufwand einfach in den Videobeamer starren...
Das ist eine Spekulation deinerseits. Hast du denn schonmal einen HDR Bildschirm mit eigenen Augen gesehen? Nein? Dann kannst du das auch nicht wissen/beurteilen. Die Hersteller werden für den Fall sich schon zu helfen wissen. Ich persönlich kanns kaum abwarten so ein Gerät zu besitzen.

SavageX
2007-08-20, 09:02:52
Das ist eine Spekulation deinerseits. Hast du denn schonmal einen HDR Bildschirm mit eigenen Augen gesehen? Nein? Dann kannst du das auch nicht wissen/beurteilen. Die Hersteller werden für den Fall sich schon zu helfen wissen. Ich persönlich kanns kaum abwarten so ein Gerät zu besitzen.

Dann sag mal, wie ein HDR ohne ein "helleres Weiss als Weiss" auskommen soll. Da "schwärzer als Schwarz" nunmal nicht geht, muss HDR zwangweise nach oben erweitern. Wenn Du aber einen HDR-Bildschirm so einstellst, dass die hellste darstellbare Farbe für Deine Augen angenehm ist, so heisst dies, dass dein bisheriges Weiss einfach nur ein ziemlich maues Grau ist. Oder Du stellst den HDR-Monitor so ein, dass das "normale" Weiss halt wie jetzt auch aussieht und lebst damit, dass Du in einem HDR-Spiel *tatächlich* geblendet wirst.

Wohlgemerkt, HDR hat erstmal nichts mit höherer Bittiefe zu tun. Es gibt nämlich z.B. Monitore für medizinische Anwendungen (z.B. für Röntgenbilder), die einfach den normalen Helligkeitsbereich darstellen - nur eben deutlich feiner aufgelöst (mit den normalen 24 bit Farbtiefe sind ja nur 256 Grautöne darstellbar).

FlashBFE
2007-08-20, 10:22:10
Selbst ohne eine höhere Farbtiefe (die trotzdem wünschenswert wäre) könnte der DP nur einen Monitor bei 3840x2400x60Hz betreiben (siehe IBMs T221). Dann ist der Standard schonwieder am Anschlag und mit höherer Bildwiederholrate wirds dann auch nichtsmehr.

Anarchy-HWLUXX
2007-08-20, 12:27:09
Selbst ohne eine höhere Farbtiefe (die trotzdem wünschenswert wäre) könnte der DP nur einen Monitor bei 3840x2400x60Hz betreiben (siehe IBMs T221). Dann ist der Standard schonwieder am Anschlag und mit höherer Bildwiederholrate wirds dann auch nichtsmehr.

Wobei das nur die allerwenigsten interessieren wird ... standard ist immernoch 1280er bzw. es bewegt sich ganz langsam eine stufe höher richtung 1400/1600/1680 - und im Widescreen hat man nochmal weniger Pixel als bei 4:3.

DanMan
2007-08-20, 17:44:59
@SavageX: Es gibt heute an LCDs schon Schnellwahltasten für z.B. Bild- und Textmodus. Wobei der Textmodus dann einen augenfreundlicheren Kontrast hat. Ähnliches wirds dann wohl auch für HDR-Bildschirme geben....
Aber das ist alles OT. Was es in Zusammenhang DisplayPort zum Thema zu sagen gibt habe ich gesagt. Ich fang mit dir hier jetzt keine HDR Grundsatzdiskussion an.

Chris Lux
2007-08-20, 18:27:19
Dann sag mal, wie ein HDR ohne ein "helleres Weiss als Weiss" auskommen soll. Da "schwärzer als Schwarz" nunmal nicht geht, muss HDR zwangweise nach oben erweitern.
es geht nicht unbedingt um das 'erweitern der helligheit' sondern auch um die aufloesung der darstellbaren werte. es ist zwar gut sehr helle sachen darstellen zu koennen aber genauso wichtig ist es auch in dunklen bereichen feiner aufgeloeste werte zu haben, denn die kann man sehr gut wahrnehmen.

Wohlgemerkt, HDR hat erstmal nichts mit höherer Bittiefe zu tun. Es gibt nämlich z.B. Monitore für medizinische Anwendungen (z.B. für Röntgenbilder), die einfach den normalen Helligkeitsbereich darstellen - nur eben deutlich feiner aufgelöst (mit den normalen 24 bit Farbtiefe sind ja nur 256 Grautöne darstellbar).
du widersprichst dir da gerade. es _hat_ auf jeden fall etwas mit bittiefe zu tun, denn ohne die keine feinere aufloesung und kein hoeheres kontrastverhaeltnis/dynamik.

Gast
2007-08-20, 18:57:46
du widersprichst dir da gerade. es _hat_ auf jeden fall etwas mit bittiefe zu tun, denn ohne die keine feinere aufloesung und kein hoeheres kontrastverhaeltnis/dynamik.


bittiefe hat mit der dynamik garnichts zu tun. es gibt beispielsweise 16bit bildformate (kanal) die exakt die gleiche dynamik haben wie die herkömlichen 8bit-formate, diese aber natürlich feiner auflösen.

richtig ist natürlich dass ein erhöhen der dynamik ohne die farbtiefe zu erhöhen keinen sinn macht, da man im wichtigen darstellbaren bereich farbauflösung verlieren würde nur um zu helle/dunkle bereiche auch noch darstellen zu können.

SavageX
2007-08-20, 19:47:47
es geht nicht unbedingt um das 'erweitern der helligheit' sondern auch um die aufloesung der darstellbaren werte. es ist zwar gut sehr helle sachen darstellen zu koennen aber genauso wichtig ist es auch in dunklen bereichen feiner aufgeloeste werte zu haben, denn die kann man sehr gut wahrnehmen.

Meines Erachtens trifft HDR lediglich eine Aussage über die innerhalb eines Bildes darstellbaren Intensitätsunterschiede.

Wenn also heute 0,0 ("schwarz") bis 1,0 ("weiss" - hängt übrigens sehr von der Wahrnehmungssituation ab, was als Weiss durchgeht) üblich sind, so muss ein HDR-Monitor schon von 0,0 bis "1,0 + delta" gehen.

Eine feinere Abstufung zwischen den Intensitätswerten ist natürlich wünschenswert, wenn man schonmal dabei ist, die Welt zu verbessern.


du widersprichst dir da gerade. es _hat_ auf jeden fall etwas mit bittiefe zu tun, denn ohne die keine feinere aufloesung und kein hoeheres kontrastverhaeltnis/dynamik.

Doch, auch ohne feinere Auflösung kriegst Du problemlos eine höhere Dynamik hin - wohlgemerkt gemessen vom Min- zum Maxwert.

Man nehme den üblichen 8 bit Wert für einen Farbkanal, und schiebe den Wert bei der Ausgabe um ein Bit nach rechts. Dann hast Du die bisherige 0,0 zu 1,0 Dynamik auf den Wertebereich von 0 bis 127 gequetsch (und natürlich die Abstufungen versaut durch die Quantisierung) und hast die Werte 128 bis 255 für den erweiterten Intensitätsbereich.

Wird (hoffentlich!) so keiner machen, nur ist HDR nicht an igendeine Bitbreite gebunden. Wichtig ist nur, dass ein größerer Intensitätsbereich abgedeckt wird.

Umgekehrt ist natürlich deshalb nicht jeder Bildschirm mit z.B. 12 bit Auflösung pro Farbkanal automatisch ein HDR-Monitor. Der kann nämlich genausogut einfach den normalen 0,0 bis 1,0 Bereich feiner auflösen, anstatt den Bereich an sich zu vergrößern.

Xmas
2007-08-20, 19:48:27
bittiefe hat mit der dynamik garnichts zu tun. es gibt beispielsweise 16bit bildformate (kanal) die exakt die gleiche dynamik haben wie die herkömlichen 8bit-formate, diese aber natürlich feiner auflösen.
Da der niedrigste darstellbare Wert > 0 relativ zum Größten damit kleiner wird, erhöht sich auch der Dynamikumfang. Es gibt ja keine obere Grenze für die Helligkeit die durch das Datenformat gegeben wäre. "1,0" ist keine absolute Helligkeit.

DanMan
2007-08-20, 22:47:51
Da der niedrigste darstellbare Wert > 0 relativ zum Größten damit kleiner wird, erhöht sich auch der Dynamikumfang. Es gibt ja keine obere Grenze für die Helligkeit die durch das Datenformat gegeben wäre. "1,0" ist keine absolute Helligkeit.
Eben. Die ist nämlich prozessabhängig, denn kein Monitor ist wie der andere. Heute nicht, und morgen wohl auch nicht.

Wenn ich die, wie du so schön sagst "Abstufungen verfeinere", SavageX, dann nimmt die Dynamik zu, aber eben auch die Bittiefe. Wie sonst willst du denn die größere Anzahl an "Farben" beschreiben? Oder technisch gesagt: Wie willst du größere Anzahl an Werten denn speichern ohne die Bittiefe zu erhöhen? Wo soll denn der Adressraum herkommen?
"Do isch halt mehr drinn" dürfte wohl nicht genügen.

Ich glaube was du meinst, ist der Unterschied/Wechsel von Integer- zu Gleitkommawerten.

Hierzu noch ein Zitat von der OpenEXR Seite:

8- and 10-bit formats lack the dynamic range necessary to store high-contrast images captured from HDR devices.
16-bit integer-based formats typically represent color component values from 0 ("black") to 1 ("white"), but don't account for over-range values (e.g., a chrome highlight) that can be captured by film negative or other HDR devices. For images intended only for display or print reproduction, clamping at "white" may be sufficient; but for image processing in a visual effects house, highlights often need to be preserved in the image data. Preserving over-range values in the source image allows an artist to change the apparent exposure of the image with minimal loss of data, for example.
Conversely, 32-bit floating-point TIFF is often overkill for visual effects work. 32-bit FP TIFF provides more than sufficient precision and dynamic range for VFX images, but it comes at the cost of storage, both on disk and in memory. When creating background plates for VFX work, film is usually scanned in at 2k pixels wide or more, and 24p HD images are 1920x1080, so background plates are already quite large relative to "typical" digital images.

SavageX
2007-08-21, 08:00:20
Wie willst du größere Anzahl an Werten denn speichern ohne die Bittiefe zu erhöhen?


HDR sagt nichts darüber aus, wie viele Werte insgesamt verfügbar sind, sondern nur, welcher Bereich mit den verfügbaren Werten abgedeckt wird.

Das hat *nichts* mit der Bittiefe zu tun, nur wird man sich keinen Gefallen damit machen, die 8 konventionellen Bits auf einen erweiterten Bereich abzubilden, weil damit die einzelnen Werte "überspreizt" verteilt werden und man sich so qualitativ einen Bock schiesst. Aus diesen Qualitätsüberlegungen heraus "braucht" man mehr als 8 bit, nicht, weil das Konzept des HDR das per se erfordert.

Mal ein paar angreifbare, aber griffige Quellen:

http://de.wikipedia.org/wiki/High_Dynamic_Range

High Dynamic Range (HDR) ist eine Bezeichnung für das maximale Kontrastverhältnis in einem Bild. Dieses liegt bei einem normalen Bild, einem sog. LDRI (Low Dynamic Range Image), bei ca. 10.000:1 (chemische Photographie) bzw. 1.000:1 (Digitalphotographie), bei einem HDRI (High Dynamic Range Image) bei ca. 200.000:1.


http://en.wikipedia.org/wiki/High_dynamic_range_imaging

In computer graphics and photography, high dynamic range imaging (HDRI) is a set of techniques that allow a far greater dynamic range of exposures (i.e. a large range of values between light and dark areas) than normal digital imaging techniques.

Und was ist die "Exposure range"?

http://en.wikipedia.org/wiki/Exposure_range

The exposure range of a device is ususally expressed in stops, which are equivalent to log2(c) where c is the medium or device's contrast ratio.

Es geht also um das Kontrastverhältnis, nicht darum, wie weit die diskreten Werte auseinander liegen. Letzteres wäre in der Tat von der Bittiefe abhängig.

Coda
2007-08-21, 13:36:27
In der Praxis erhöht die Bittiefe aber schlicht und einfach immer die Dynamik, weil man ja einfach den Monitor dadurch heller stellen könnte ohne mehr Abstufungen im Bild zu haben bei dunkleren Werten. Ganz einfach.

Und genauso ist es auch wenn man das HDR nur für den Postfilter benützt. Man rendert das Bild einfach "dunkler" wenn man mehr Bits zur Verfügung hat und hat dadurch eine deutlich höhere Dynamik.

Nur weil z.B. FP16 direkt auf Werte >1.0 abbildet hat es nicht automatisch mehr Dynamik als FX16, das nur [0,1] Werte enthält (Wobei das unter D3D10 eh nicht mehr automatisch so gilt).

Wenn du allerdings von 16-Bit-Integer-Bildformaten sprichst gebe ich dir recht. Die sind wirklich so ausgelegt in [0,1] zu bleiben und werden genauso geclampt wie 8-Bit.

DanMan
2007-08-21, 14:16:51
Das hat *nichts* mit der Bittiefe zu tun, nur wird man sich keinen Gefallen damit machen, die 8 konventionellen Bits auf einen erweiterten Bereich abzubilden, weil damit die einzelnen Werte "überspreizt" verteilt werden und man sich so qualitativ einen Bock schiesst. Aus diesen Qualitätsüberlegungen heraus "braucht" man mehr als 8 bit, nicht, weil das Konzept des HDR das per se erfordert.
Ja eben, sag ich doch. Wo ist das noch HDR, wenn ich die Werte eines gegebenes "Bildes" einfach auf einen größeren Dynamikbereich abbilde? Dazu müsste ich ja die Zwischenwerte interpolieren um einen Mehrwert zu haben, aber das gibt nur Matsch.

Einigen wir uns einfach darauf, dass das eine ohne das andere nicht funktioniert / keinen Sinn hat.

SavageX
2007-08-21, 15:11:55
Einigen wir uns einfach darauf, dass das eine ohne das andere nicht funktioniert / keinen Sinn hat.

Ich denke so können wir verbleiben. Sind ja auch schon weit genug vom Thema abgekommen. ;)

dargo
2007-10-07, 00:11:57
Mal ne Frage zum DisplayPort - sind damit endlich 75Hz bei 1680x1050 möglich?

Chris Lux
2007-10-07, 10:55:28
Mal ne Frage zum DisplayPort - sind damit endlich 75Hz bei 1680x1050 möglich?
ja

Die gelbe Eule
2007-10-07, 11:04:13
Interessanter wären doch 1920x1080 bei 75Hz oder sogar 100Hz. Solange der Displayport keinen qualitativen Vorsprung gegenüber HDMI hat, wird es schwer dafür Argumente zu finden. Wie sollen denn bitte dannn LCDs/Plasmas daherkommen? D-Sub, DVI, HDMI und Display Port gleichzeitig? Macht kein Hersteller mit und gerade die "schlechteren" zu bescheiden, also wegzulassen, würde eine große Klientel ausschließen, sich so einen Bildschirm zu kaufen.

dargo
2007-10-07, 12:33:45
ja
Und wann kommen endlich passende Bildschirme mit dem DisplayPort?

Interessanter wären doch 1920x1080 bei 75Hz oder sogar 100Hz.
Mir würden bei 1680x1050 75Hz schon reichen, ist eine deutliche Verbesserung von 60Hz.

Die gelbe Eule
2007-10-07, 13:07:19
Es gibt FullHD Displays mit 100Hz, nur musst dann auch was latzen ;)
Wie gesagt, es muss auch einen technischen Vorteil haben, daß man wieder HDMI ablösen möchte.

dargo
2007-10-07, 13:24:35
Es gibt FullHD Displays mit 100Hz, nur musst dann auch was latzen ;)

Ich brauche sowas nicht. Ich möchte nur von meinem 19"TFT auf einen 22" WS TFT (1680x1050) umsteigen der per DisplayPort mindestens 75Hz beherrscht. Und das ist leider momentan bei dem blöden DVI nicht möglich.

Die gelbe Eule
2007-10-07, 13:26:05
Per HDMI aber schon, weil das machen die FullHD Displays ja nicht anders. Für 75Hz braucht es keinen neuen Port.

dargo
2007-10-07, 13:28:29
Warum sprichst du immer von HDMI? Ich rede von ganz normalen PC TFTs im 22" Bereich.

Mstrmnd
2007-10-07, 13:34:39
Warum sprichst du immer von HDMI? Ich rede von ganz normalen PC TFTs im 22" Bereich.
Selbstverständlich würde auch DVI für 75Hz bei der von Dir genannten Auflösung reichen. Dass das nicht geht liegt an den Bildschirmen und nicht an der Schnittstelle.

@Eule:
DP gibt Dir 120Hz bei FullHD. Ich finde das schön. :wink:

dargo
2007-10-07, 13:41:01
Selbstverständlich würde auch DVI für 75Hz bei der von Dir genannten Auflösung reichen. Dass das nicht geht liegt an den Bildschirmen und nicht an der Schnittstelle.

Wus? Ich dachte immer es liegt am DVI. :confused:
Verstehe ich nicht, warum schaffen die TFTs dann die native Auflösung über den analogen Anschluss mit 75Hz und am DVI nur mit 60Hz?

Neomi
2007-10-07, 14:04:49
Wus? Ich dachte immer es liegt am DVI. :confused:

1920x1200 (24" nativ) schaffe ich über DVI schon mit 60 Hz. Da liegt dann auch das Limit, umgerechnet auf deine Zielauflösung sollten sogar 78 Hz über DVI machbar sein.

Mstrmnd
2007-10-07, 14:07:42
Wus? Ich dachte immer es liegt am DVI. :confused:
Verstehe ich nicht, warum schaffen die TFTs dann die native Auflösung über den analogen Anschluss mit 75Hz und am DVI nur mit 60Hz?
Weil die Implementierung der Monitorhersteller mist ist. Sie sparen daran, weil man es momentan noch nicht effektiv als Feature bewerben kann.

Zum Glück wird sich das bald ändern, denn bald kommen die Fernseher mit 100 und 120Hz und ich würde erwarten, dass das im PC-Bereich auch zum beachteten Feature wird. Wird auch Zeit!

dargo
2007-10-07, 14:10:20
Weil die Implementierung der Monitorhersteller mist ist. Sie sparen daran, weil man es momentan noch nicht effektiv als Feature bewerben kann.

Zum Glück wird sich das bald ändern, denn bald kommen die Fernseher mit 100 und 120Hz und ich würde erwarten, dass das im PC-Bereich auch zum beachteten Feature wird. Wird auch Zeit!
Aha, aber warum kann ich dann bei meinem Viewsonic VX924 75Hz über DVI in 1280x1024 nutzen?

Mstrmnd
2007-10-07, 14:13:49
Aha, aber warum kann ich dann bei meinem Viewsonic VX924 75Hz über DVI in 1280x1024 nutzen?
Warum nicht? Mit manchen Monitoren geht es halt und mit manchen nicht. Es gibt auch viele 19er, mit denen Du nur 60 Hz fahren kannst. Mit der Auflösung hängt es nur insofern zusammen, als dass eine niedrigere Auflösung bei dieser Hz-Zahl auch niedrigere Anforderungen an die Elektronik im Monitor stellt und damit billiger zu implementieren ist. Bei dieser Auflösung scheint der Aufpreis dafür für die Hersteller vertretbar zu sein. Bei höheren wäre ihnen wohl der Aufwand zu hoch.

dargo
2007-10-07, 14:18:18
Na toll. Danke für die Erklärung. Also, heißt es für mich weiter auf den "perfekten" TFT warten. :(

Avlox/Gast
2007-10-07, 14:19:18
Selbstverständlich würde auch DVI für 75Hz bei der von Dir genannten Auflösung reichen. Dass das nicht geht liegt an den Bildschirmen und nicht an der Schnittstelle.


Wenn wir hier vom Single Link DVI sprechen ist dem nicht so.

DVI stammt aus einer Zeit der Röhren Monitore. Der Rücklauf des Strahls am Ende einer Zeile benötigt ein wenig Zeit. In dieser Zeit werden vom DVI Anschluss keine Daten übertragen. Das ist verschenkte Bandbreite.
Bei LCD Displays ist diese Wartezeit nicht nötig und man kann diese nutzen um Daten zu übertragen. Diese Funktion "Reduced Blanking" ist aber erst später hinzu gekommen und muss von der Grafikkarte, wie auch dem Monitor unterstützt werden.
DVI schaufelt 3,7GBit/s über die Leitung. 1600x1200Pixel bei 60Hz war eigentlich mal die Spitze von Single Link DVI.


@Neomi

1920x1200 bei 78Hz? Ich komme dort immer auf 200Mhz, SL DVI überträgt aber nur 165MHz. Wie kommst du denn darauf?

dargo
2007-10-07, 14:29:47
Wenn wir hier vom Single Link DVI sprechen ist dem nicht so.

DVI stammt aus einer Zeit der Röhren Monitore. Der Rücklauf des Strahls am Ende einer Zeile benötigt ein wenig Zeit. In dieser Zeit werden vom DVI Anschluss keine Daten übertragen. Das ist verschenkte Bandbreite.
Bei LCD Displays ist diese Wartezeit nicht nötig und man kann diese nutzen um Daten zu übertragen. Diese Funktion "Reduced Blanking" ist aber erst später hinzu gekommen und muss von der Grafikkarte, wie auch dem Monitor unterstützt werden.
DVI schaufelt 3,7GBit/s über die Leitung. 1600x1200Pixel bei 60Hz war eigentlich mal die Spitze von Single Link DVI.

Ja, was denn nun. Ist es die Technik (DVI) oder einfach die Faulheit/Sparsamkeit der Bildschirmhersteller, dass es keinen 22" TFT gibt der 75Hz über DVI beherrscht? :|



@Neomi

1920x1200 bei 78Hz? Ich komme dort immer auf 200Mhz, SL DVI überträgt aber nur 165MHz. Wie kommst du denn darauf?
Du hast ihn falsch verstanden. Er meinte, dass meine bevorzugte Auflösung bei 1680x1050 noch 78Hz über DVI liefern könnte.

Mstrmnd
2007-10-07, 14:39:27
Wenn wir hier vom Single Link DVI sprechen ist dem nicht so.

DVI stammt aus einer Zeit der Röhren Monitore. Der Rücklauf des Strahls am Ende einer Zeile benötigt ein wenig Zeit. In dieser Zeit werden vom DVI Anschluss keine Daten übertragen. Das ist verschenkte Bandbreite.
Bei LCD Displays ist diese Wartezeit nicht nötig und man kann diese nutzen um Daten zu übertragen. Diese Funktion "Reduced Blanking" ist aber erst später hinzu gekommen und muss von der Grafikkarte, wie auch dem Monitor unterstützt werden.
DVI schaufelt 3,7GBit/s über die Leitung. 1600x1200Pixel bei 60Hz war eigentlich mal die Spitze von Single Link DVI.
Es haben praktisch alle Spielerkarten DL-DVI und Dargo ist da keine Ausnahme. Das sollten auch die Monitorhersteller wissen. Von daher hast Du zwar technisch recht, aber es ist kein valides Argument gegen DVI als ganzes mit der Auflösung und der Hz-Zahl. Denn es liegt an den Moni-Herstellern, die von DL-DVI zur Verfügung gestellte Bandbreite auch zu nutzen. Deswegen habe ich auch gegen diese gewettert. :wink:

Gast
2007-10-07, 14:43:50
Ja, was denn nun. Ist es die Technik (DVI) oder einfach die Faulheit/Sparsamkeit der Bildschirmhersteller, dass es keinen 22" TFT gibt der 75Hz über DVI beherrscht? :

Doch sollte gehen. Aber ich weiss nicht ob die Panels überhaupt in der Lage sind 75 komplette Bildwechsel darzustellen.
Geräte die mehr als 60Hz annehmen, stellen diese ja eh nicht dar.

Neomi
2007-10-07, 14:47:08
1920x1200 bei 78Hz? Ich komme dort immer auf 200Mhz, SL DVI überträgt aber nur 165MHz. Wie kommst du denn darauf?

Nein, 1920x1200 mit 60Hz, entsprechend 1680x1050 mit 78 Hz.

dargo
2007-10-07, 14:51:06
Geräte die mehr als 60Hz annehmen, stellen diese ja eh nicht dar.
Wie darf ich das nun wieder verstehen? :)
Mein Viewsonic VX924 beherrscht 75Hz bei 1280x1024. Und das sehe ich auch ohne Vsync bei Games. Mit 60Hz bricht das Bild extrem (je nach Game, Extrembeispiel - Prey), was bei 75Hz kaum mehr der Fall ist.

Es haben praktisch alle Spielerkarten DL-DVI und Dargo ist da keine Ausnahme. Das sollten auch die Monitorhersteller wissen. Von daher hast Du zwar technisch recht, aber es ist kein valides Argument gegen DVI als ganzes mit der Auflösung und der Hz-Zahl. Denn es liegt an den Moni-Herstellern, die von DL-DVI zur Verfügung gestellte Bandbreite auch zu nutzen. Deswegen habe ich auch gegen diese gewettert. :wink:
Was ich daran nicht verstehe - wenn technisch bei 1680x1050 78Hz möglich sind dann könnte man immer noch 70Hz bei den Bildschirmen anbieten. Damit bewegt man sich nicht so hart an der Grenze und so teuer kann es nun auch nicht sein. Wäre immer noch besser als dieser 60Hz Mist.

Mstrmnd
2007-10-07, 15:36:41
Was ich daran nicht verstehe - wenn technisch bei 1680x1050 78Hz möglich sind dann könnte man immer noch 70Hz bei den Bildschirmen anbieten. Damit bewegt man sich nicht so hart an der Grenze und so teuer kann es nun auch nicht sein. Wäre immer noch besser als dieser 60Hz Mist.
Es wäre auch nicht unverhältnismäßig teuer bessere Interpolation zu implementieren. Wird auch kaum gemacht. Ist halt so heutzutage. :(

dargo
2007-10-07, 17:40:49
Hier scheint es einen 20"-er zu geben der 1680x1050 über DVI mit 75Hz beherrscht.
http://www.consumer.philips.com/consumer/de/de/consumer/cc/_productid_200WP7ES_00_DE_CONSUMER/LCD-Breitbild-Monitor+200WP7ES-00

Ob die 75Hz auch wirklich übernommen werden werde ich wohl durch einen Forum User die Tage erfahren. Aber von einem 19" (5:4) auf einen 20" WS umzusteigen macht nicht wirklich Sinn. Da fehlt es einfach an der Vertikalen. ;(

Avalox/Gast
2007-10-07, 18:09:46
Wie darf ich das nun wieder verstehen? :)
Mein Viewsonic VX924 beherrscht 75Hz bei 1280x1024. Und das sehe ich auch ohne Vsync bei Games. Mit 60Hz bricht das Bild extrem (je nach Game, Extrembeispiel - Prey), was bei 75Hz kaum mehr der Fall ist..

Kann ich nicht sagen. Nur würde es mich wundern, wenn das Gerät tatsächlich 75 Bildwechsel / Sekunde ansteuern würde. (warum auch?)

Das bei 60Hz die Spielegrafik ruckelt, muss nicht an einem geringeren Bidlaufbau liegen. Es kann einfach ein Problem in der Synchronität sein.

Müsst man mal Sailer Moon fragen, ob 75Hz Wiedergabe bei PC Displays verbreitet sind.

Mstrmnd
2007-10-07, 18:40:13
Hier scheint es einen 20"-er zu geben der 1680x1050 über DVI mit 75Hz beherrscht.
http://www.consumer.philips.com/consumer/de/de/consumer/cc/_productid_200WP7ES_00_DE_CONSUMER/LCD-Breitbild-Monitor+200WP7ES-00

Ob die 75Hz auch wirklich übernommen werden werde ich wohl durch einen Forum User die Tage erfahren. Aber von einem 19" (5:4) auf einen 20" WS umzusteigen macht nicht wirklich Sinn. Da fehlt es einfach an der Vertikalen. ;(
Dafür hast Du eine höhere DPI, ist doch auch was. :smile:

dargo
2007-10-07, 18:49:52
Das bei 60Hz die Spielegrafik ruckelt, muss nicht an einem geringeren Bidlaufbau liegen. Es kann einfach ein Problem in der Synchronität sein.

Warum ruckelt? Es bricht einfach stärker/öfter bei 60Hz ohne Vsync. Sprich - tearing.

Dafür hast Du eine höhere DPI, ist doch auch was. :smile:
Hmm, naja. Ich habe ja noch etwas Zeit. Ein neuer TFT ist bei mir eh erst Mitte/Ende 2008 geplant. Ich bin der Meinung, dass für Gamer die 1680x1050 Auflösung mit 4xAA immer noch zuviel des Guten für eine SingleGPU-Graka ist. Das könnte sich erst 2008/2009 imho ändern. Vielleicht tut sich bis dahin auch was bei den 22" Bildschirmen. Ansonsten kann ich immer noch auf den 20"-er zurückgreifen. Schauen wir mal. :)

AnarchX
2007-10-07, 19:25:56
Aber von einem 19" (5:4) auf einen 20" WS umzusteigen macht nicht wirklich Sinn. Da fehlt es einfach an der Vertikalen. ;(
Dafür bietet er aber ein relativ guten Schwarzwert dank MVA-Panel und weniger sichtbares Aliasing wegen der höhereren Pixeldichte.

Wobei ich beim direkten Vorgänger aber Ruckler hatte bei 75Hz...

Mehr als 60Hz sind wohl eben solche Dinge, neben vernünftigen Blickwinkeln und Farbwiedergabe, die ein Großteil der Kunden nicht verlangen und somit eben vernachlässigt werden.:rolleyes:

dargo
2007-10-07, 20:20:55
Wobei ich beim direkten Vorgänger aber Ruckler hatte bei 75Hz...

Wie? Du hattest Ruckler, nur weil der TFT mit 75Hz angesteuert wurde? :|

PatkIllA
2007-10-07, 21:03:59
Wie? Du hattest Ruckler, nur weil der TFT mit 75Hz angesteuert wurde? :|
Da die meisten TFTs das intern wieder auf 60 Hz umrechnen nicht ungewöhnlich.

Die gelbe Eule
2007-10-08, 23:43:09
Wo ist der DisplayPort überhaupt? Der G92 hat keinen, auf Seite ATi findet man auch nichts. Nichtmal irgendwelche Bildschirme sind damit angekündigt.

StefanV
2007-10-09, 00:26:12
Den wirds ja auch erst mit der nächsten Generation geben, frühesten, ist also noch in Entwicklung.

Der Display Port scheint aber äußerst interessant zu sein, da einiges an der Ausgabe geändert wurd, DVI bietet ja auch nicht wirklich mehr als ein RGB Port...

Die gelbe Eule
2007-10-09, 00:28:33
Aber was ist mit HDMI? Man wird kaum etwas ablösen müssen, das sich nichtmal richtig durchgesetzt hat, also was VGA Karten angeht.

Mstrmnd
2007-10-09, 00:32:14
Wo ist der DisplayPort überhaupt? Der G92 hat keinen, auf Seite ATi findet man auch nichts. Nichtmal irgendwelche Bildschirme sind damit angekündigt.
Das stimmt nicht. Es gab bereits mehrere Ankündigungen.

http://www.heise.de/newsticker/result.xhtml?url=/newsticker/meldung/93775
http://www.heise.de/newsticker/result.xhtml?url=/newsticker/meldung/93469

StefanV
2007-10-09, 00:53:55
Aber was ist mit HDMI? Man wird kaum etwas ablösen müssen, das sich nichtmal richtig durchgesetzt hat, also was VGA Karten angeht.
HDMI ist nur 'ne Zwischenlösung, basierend auf DVI (mit anderem Stecker) + Sound.

Ist also nix weltbewegendes, der Display Port ists aber!

Mstrmnd
2007-10-09, 00:58:56
Ist also nix weltbewegendes, der Display Port ists aber!
Das würde ich so nicht sagen. Dafür ist die Steigerung bei der Übertragungsrate viel zu gering.

Gast
2007-10-09, 02:05:21
displayport bietet interleaving und ecc nach rs 15,13 womit nun der kopierschutz endlich zugeschaltet werden kann nachdem hdmi über dvi diesbezüglich ja der totale reinfall war.
der rest ist bananaware-feintuning.

Gast
2007-10-11, 15:11:17
displayport bietet interleaving und ecc nach rs 15,13 womit nun der kopierschutz endlich zugeschaltet werden kann nachdem hdmi über dvi diesbezüglich ja der totale reinfall war.
der rest ist bananaware-feintuning.

1.hdcp über dvi
2.das ist ja optional wie auch hdcp über hdmi.

up¦²
2007-12-06, 23:04:03
Geht langsam los!
http://www.hothardware.com/News/DisplayPort_Cards_Coming_AMDs_RV635_Unveiled/

Gast
2007-12-08, 17:13:56
HDMI ist nur 'ne Zwischenlösung, basierend auf DVI (mit anderem Stecker) + Sound.

Ist also nix weltbewegendes, der Display Port ists aber!

Aha. Und wo genau liegt der Unterschied? Was kann der DP besser als der HDMI?

Hab mal den Thread überflogend und gesuct, aber klar geworden ist mir das nicht...

Nightspider
2007-12-08, 17:30:56
Hat der Displayport eigentlich wie HDMI Sound-Übertragung und generell überhaupt optische oder übertragungstechnische Vorteile gegenüber dem DVI ?

Den einzigen Vorteil den ich sehen kann ist, dass das Kabel dünner und flexibler ist und damit nichtmehr soviel Platz wegnimmt.

StefanV
2007-12-08, 17:37:26
Aha. Und wo genau liegt der Unterschied? Was kann der DP besser als der HDMI?
Hab mal den Thread überflogend und gesuct, aber klar geworden ist mir das nicht...
Dann solltest halt noch mal schauen und nicht nur in diesem Thread sondern Webweit.

SChau dir den Link vom Up² über deinem Posting an, das dürfte erleuchtend sein (naja, ein wenig)...

Dazu noch höhere ÜBertragungsrate, mehr als 8bpp usw.

StefanV
2007-12-08, 17:38:23
Hat der Displayport eigentlich wie HDMI Sound-Übertragung und generell überhaupt optische oder übertragungstechnische Vorteile gegenüber dem DVI ?

Den einzigen Vorteil den ich sehen kann ist, dass das Kabel dünner und flexibler ist und damit nichtmehr soviel Platz wegnimmt.
Ja, hat es, DVI ist ja mittlererweile doch schon etwas älter, unter anderem höhere Frequenzen, mehr Farben, einen Kanal zur kommunikation zwischen Karte und Schirm und noch vieles mehr...

StefаnV
2007-12-08, 17:56:03
@ StefanV
Ich kann dir absolut nicht zustimmen.

Gast
2007-12-09, 09:11:41
Wenn doch Glasfaser unterstüzt wird, kann es nicht sein dass dann extrem dünne Kabel realisierbar sind?

Ist der Port dafür schon bereit, oder wird das erst noch kommen?

nomadhunter
2007-12-09, 11:39:33
Der DisplayPort wie wir ihn an Monitoren und Grafikkarten sehen ist rein elektrisch, genauso wie DVI/HDMI. Es wird aber möglich sein, einen optischen Transmitter/Empfänger an Grafikkarte/Monitor anzuschließen* zwischen denen dann das Signal per Glasfaser übertragen wird. Das lohnt sich aber nur für große Strecken, bei denen die elektrische Übertragung versagt. Nur um die Kabel dünner zu machen wäre das viel zu teuer.

*Möglich wäre natürlich auch, den Transmitter/Empfänger gleich in Graka/Monitor einzubauen, das würde aber wie schon gesagt sehr teuer werden und lohnt sich nur für Spezialanwendungen. Außerdem hätte so ein Gerät dann keinen normalen DisplayPort (der ja elektrisch ist) mehr, sondern irgendeinen Glasfaser-Anschluss.

up¦²
2008-01-03, 23:14:46
SPARKLE GeForce 8800 GT DisplayPort
Ahead for next generation display interface, the SPARKLE GeForce 8800 GT DisplayPort graphics card is the world' s first DisplayPort ready graphics card. DisplayPort is a new digital display interface standard (approved May 2006, current version 1.1 approved on April 2, 2007) put forth by the Video Electronics Standards Association (VESA). Unlike present HDMI interface, It defines a new license-free, royalty-free, state-of-the-art digital audio/video interconnect, intended to be used primarily between a computer and its display monitor, or a computer and a home-theater system. Helped with strong R&D team, SPARKLE takes the lead in introducing DisplayPort interface into the SPARKLE GeForce 8800 GT DisplayPort Graphics Card with only one cable required, it is able to simultaneously transmit 3 1080p high resolution digital video streams and 7.1 surround-sound audio quality with 10.8Gb/s bandwidth.

http://www.sparkle.com.tw/News/DisplayPort/news_SP8800GT_Displayport_EN.html
Na denn man tau :up:

reallord
2008-01-04, 14:23:04
Soweit ich das irgendwo gelesen hab, soll der DisplayPort doch auch "mechanisch" "elektrisch" kompatibel zu HDMI und DVI (und vermutlich dann sogar auch zu VGA) sein. Sprich nen einfacher Adapter (wie bei DVI2VGA) und ich kann anschliessen was ich will.
Das setzt ja voraus, dass die Übertragung weiterhin elektrisch von statten geht oder?

GeneralHanno
2008-01-04, 14:26:52
Mechnisch kompatibel heißt für mich, dass man Stecker A auch in Buxe B stecken kann. Das geht imo nur bei Displayport und HDMI (bin mir aber nicht 100% sicher).

Das Signal wird natürlich elektisch übertragen (die einzige alternative wäre ja lichtleiter) und daher wird es auch etliche adapterkombinationen geben ;)

Xmas
2008-01-04, 14:41:16
DisplayPort und HDMI sind weder mechanisch noch elektrisch kompatibel. HDMI und DVI sind mit Einschränkungen elektrisch kompatibel.

Das VGA-Signal gibt es lediglich auf den zusätzlichen Pins des DVI-I-Anschlusses, passive Adapter zwischen DP oder HDMI und VGA wird es also nicht geben.

reallord
2008-01-04, 14:55:34
DisplayPort und HDMI sind weder mechanisch noch elektrisch kompatibel. HDMI und DVI sind mit Einschränkungen elektrisch kompatibel.

Hmm, ja wie denn nu?

[PHP]Im April 2007 verabschiedete die VESA die Version 1.1, die unter anderem die Unterstützung der Verschlüsselung mittels HDCP 1.3 beinhaltet. Dieser Kopierschutz wird bereits bei DVI und HDMI verwendet. DisplayPort 1.1 ist elektrisch kompatibel zu DVI und HDMI, so dass ein Anschluss über passive Adapter möglich ist. (Link (http://de.wikipedia.org/wiki/DisplayPort))


Per Adapter ist DisplayPort vorerst kompatibel zu DVI und HDMI. (Link2 (http://www.tomshardware.com/de/DisplayPort-30-Zoll-30-inch-Samsung,news-239684.html))

Xmas
2008-01-04, 16:23:12
Hmm... Aus dem englischen Wikipedia-Artikel:
The Video signal is not compatible with DVI or HDMI, but the specification will allow pass-through of these signals.
Mit anderen Worten, die Grafikkarte muss erkennen können was für ein Ausgabegerät dranhängt und kann dann ein anderes Signal über denselben Anschluss ausgeben. Etwas anders als bei DVI und HDMI, wo das Signal tatsächlich identisch sein kann.

nomadhunter
2008-01-04, 16:31:14
So oder so wirds mit passiven Adaptern funktionieren. Wenn das Display-Port Gerät auf der Gegenseite nur ein HDMI-/DVI-Gerät erkennt, wird eben nach HDMI-/DVI-Spezifikation gesendet.

StefanV
2008-01-04, 16:50:15
Etwas anders als bei DVI und HDMI, wo das Signal tatsächlich identisch sein kann.
Nein, DVI und HDMI sind identisch, einziger Unterschied für große Schirme ist, das es bei DVI '2 Kanäle' gibt, bei HDMI aber doppelten Takt un das HDMI generell mit HDCP vergewaltigt wird, bei DVI kann das sein, muss aber nicht.

Xmas
2008-01-04, 18:42:25
Nein, DVI und HDMI sind identisch, einziger Unterschied für große Schirme ist, das es bei DVI '2 Kanäle' gibt, bei HDMI aber doppelten Takt un das HDMI generell mit HDCP vergewaltigt wird, bei DVI kann das sein, muss aber nicht.
"Nein"? Wo genau widersprichst du mir denn? Außerdem gibt es noch mehr mögliche Unterschiede als die genannten.

flix
2008-02-05, 09:51:29
ATI hat ja Ende Januar endlich ihre neue Chipsatz Familie Radeon HD 3600 vorgestellt, die explizit den DisplayPort direkt unterstützt, wie übrigens die ganze Serie Radeon HD 3000 mit ATI Avivo HD, so z.B. auch die Serie ATI Radeon HD 3400. Unter GPU Spezifiaktionen heisst es z.B. für die 3600 Familie:

Two integrated DisplayPort™ outputs :smile:

Each supports 24- and 30-bit displays at all resolutions up to 2560x1600 (Some custom resolutions require user configuration)
1, 2, or 4 lanes per output, with data rate up to 2.7 Gbps per lane


Da ist sie nun endlich die direkte Unterstützung für den DisplayPort, aber es gibt keine Karten, die ihn auch implementiert haben. Jedenfalls ist weder bei den ATI Partnern (http://ati.amd.com/products/radeonhd3600/partner_products.html) noch beim Preisvergleich (http://www.heise.de/preisvergleich/?fs=displayport) bisher etwas zu finden.

Ich suche eine passiv gekühlte Karte basierend auf ATI Radeon HD 3650 (RV635), wie z.B. diesse beiden:

PowerColor Radeon HD 3650 SCS3 (http://www.powercolor.com/Global/products_features.asp?ProductID=1747)
HIS Radeon HD 3650 iSilence III (http://www.hisdigital.com/html/product_ov.php?id=368&view=yes)


Ein Displayport Anschluss bleibt aber leider immer noch Fehlanzeige trotz Unterstützung des Chipsatzes. Wenn also jemand etwas hört in der Richtung bitte hierhin. Danke!

Sailor Moon
2008-02-05, 20:50:30
Nein, DVI und HDMI sind identisch, einziger Unterschied für große Schirme ist, das es bei DVI '2 Kanäle' gibt, bei HDMI aber doppelten Takt un das HDMI generell mit HDCP vergewaltigt wird, bei DVI kann das sein, muss aber nicht.
Wobei es DualLink HDMI tatsächlich auch gibt (etwas anderer Stecker), was ich bislang aber noch nie live gesehen habe. Ansonsten wird tatsächlich ein SingleLink implementiert, der aber erst seit HDMI 1.3 aufgebohrt wurde, um >165Mhz zu erlauben.

Gruß

Denis

reallord
2008-02-06, 00:26:59
Da ist sie nun endlich die direkte Unterstützung für den DisplayPort, aber es gibt keine Karten, die ihn auch implementiert haben.

Ich hab ne HD3850, bei der war nen Adapter von DVI auf Displayport (Zumindest glaub ich dass das einer war) dabei. Daher versteh ich deine Aussage nich.

StefanV
2008-02-06, 01:11:33
Nein, das ist nur HDMI, Display Port wird noch nicht unterstützt.

flix
2008-02-06, 09:55:32
Ich hab ne HD3850, bei der war nen Adapter von DVI auf Displayport (Zumindest glaub ich dass das einer war) dabei. Daher versteh ich deine Aussage nich.

Implementiert heisst für mich, dass der Displayport direkt auf der Grafikkartenslotblende zur Verfügung steht.

Hier mal die drei Typen zur genaueren Identifizierung:

DisplayPort (http://en.wikipedia.org/wiki/DisplayPort)
http://upload.wikimedia.org/wikipedia/en/thumb/a/aa/DisplayPort_source-side_connector_pinout.png/300px-DisplayPort_source-side_connector_pinout.pnghttp://www.bizlinktech.com/pix/future_displayport_001.jpg

DVI-I (http://en.wikipedia.org/wiki/Dvi)
http://upload.wikimedia.org/wikipedia/commons/thumb/5/5b/DVI_Connector_Pinout.svg/300px-DVI_Connector_Pinout.svg.pnghttp://www.bluejeanscable.com/store/dvi-cables/dviiplug.jpg

HDMI (http://en.wikipedia.org/wiki/Hdmi)
http://upload.wikimedia.org/wikipedia/commons/thumb/4/48/HDMI_Connector_Pinout.svg/310px-HDMI_Connector_Pinout.svg.pnghttp://www.gadgetmadness.com/archives/cheapest_hdmi.jpg

Adapter wird es bei wirklich implementiertem DisplayPort in die andere Richtung geben: Vom DisplayPort zu DVI bzw. HDMI.

Gast
2008-02-07, 01:06:33
Nein, DVI und HDMI sind identisch, einziger Unterschied für große Schirme ist, das es bei DVI '2 Kanäle' gibt, bei HDMI aber doppelten Takt un das HDMI generell mit HDCP vergewaltigt wird, bei DVI kann das sein, muss aber nicht.

Du hast aber CEC unterschlagen! Das hat DVI nicht.

nomadhunter
2008-02-07, 09:53:15
Du hast aber CEC unterschlagen! Das hat DVI nicht.
Nicht nur das, auch der ganze Audiokram und mit den neueren HDMI-Versionen auch andere Farbräume. Das ist aber eigentlich nur eine Protokollsache. Technisch gesehen ist HDMI wirklich nur Single-Link-DVI mit einem anderen Stecker und (mit neueren Versionen) teilweise schnellerem Takt.

Gast
2008-02-17, 15:18:28
Wenn ich mir für die nächsten Jahre einen neuen Monitor jetzt kaufe
was ist den besser einen TFT mit HDMI- oder DVI- Anschluss ?

.

nomadhunter
2008-02-17, 16:19:54
Egal. Ein Adapter kostet ~2€.

Anarchy-HWLUXX
2008-02-18, 11:57:26
Wenn ich mir für die nächsten Jahre einen neuen Monitor jetzt kaufe
was ist den besser einen TFT mit HDMI- oder DVI- Anschluss ?

.

HDMI ist sinnfrei wenn der TFT nicht erade eingebaute Boxen hat ... nebenbei haben alle TFTs einen DVI, HDMI ist wenn überhaupt dann als extra vorhanden.

san.salvador
2008-02-18, 12:01:46
Es gibt definitiv Monitore, die nur noch HDMI haben - ist schließlich billiger. ;)

reallord
2008-04-11, 20:17:11
Aus aktuellem Anlass (nen Kumpel wollte da Infos):

Das hat jetzt nicht direkt mit DP zu tun, aber passt hier doch noch am besten.
Er hat ne Gainward 9600GT, die hat halt DVI-I und nen HDMI Ausgang.

Ursprünglich hatte ich ja mal die Hoffnung, dass ich - u.U. auch mit einer Hintereinanderschaltung - mit Hilfe der Adapter aus DP VGA rausbekomme.

Bzgl. HDMI hab ich aber nun - soweit ich dazu Infos gefunden hab - feststellen müssen, dass die günstigen passiven Adapter von HDMI zu DVI, eben nur DVI-D Adapter sind und bisher hab ich auch keinen HDMI2DVI-I Adapter gesehen. Sprich ich bekomme nur noch aus DVI-I ein analoges Signal.
Ich vermute mal, dass das dann auch auf DP zutreffen wird :(

Andererseits kann ich mir das so gar nicht so recht vorstellen. Angenommen ich hab irgendwann ein Notebook mit HDMI oder DP und möchte daran nen VGA-Beamer anschliessen. Wie mach ich das dann?
Ich kann mir schlicht nicht vorstellen, dass dann erwartet wird, das sämtliche Beamer ersetzt werden. Nahezu alle Beamer die ich kenne und gelegentlich nutze, haben halt nur VGA. (Sind zugegeben wohl auch ältere mit max 1024x768).
Gerade im Businessbereicht denke ich, dass - wenn auch unter der Verwendung von passiven Adaptern - eine analoge Anschlussmöglichkeit extrem wichtig ist.

BiG OnE
2008-04-12, 12:15:33
Moin, moin

HDMI und DP arbeiten rein digital, nur der DVI-I Anschluss hat einen Analogpart für VGA. Und bei deinem Beispiel zu bleiben, sofern das Notebook kein Videoausgang hätte, dann könntest du deinen VGA Beamer nicht anschließen.

Bis denne ...

reallord
2008-08-12, 20:46:46
Chip Bericht zu DisplayPort (http://www.chip.de/artikel/Neue-Videoschnittstelle-DisplayPort_31967387.html)

Moin, moin

HDMI und DP arbeiten rein digital, nur der DVI-I Anschluss hat einen Analogpart für VGA. Und bei deinem Beispiel zu bleiben, sofern das Notebook kein Videoausgang hätte, dann könntest du deinen VGA Beamer nicht anschließen.

Bis denne ...


http://img166.imageshack.us/img166/3038/17988568214c8871796vo0.png (http://imageshack.us)
http://img166.imageshack.us/img166/3038/17988568214c8871796vo0.849a281887.jpg (http://g.imageshack.us/g.php?h=166&i=17988568214c8871796vo0.png)
(Aus dem Chip Bericht, S. 5)


DisplayPort 1.1 erlaubt Kompatibilität zu VGA, DVI und HDMI, so dass ein Anschluss über preisgünstige passive Adapter möglich ist.
(Quelle: Wikipedia (http://de.wikipedia.org/wiki/DisplayPort))

Das ist doch mal ne Verbesserung. Somit bekomm ich ne moderne physisch kleine Schnittstelle für mein (Sub)Notebook und kann dennoch die "veralteten" VGA-Beamer anschliessen...

Nightspider
2008-08-12, 21:09:19
Wtf ist Direct Drive ?

reallord
2008-08-12, 21:15:33
Wtf ist Direct Drive ?


Besonders viel sparen könnte der DisplayPort-Standard mit "Direct-Drive"-Monitoren, die außer dem TFT-Controller keine eigene Elektronik besitzen. Ein OSD (On Screen Display) gäbe es dann nicht mehr. Alle Bildparameter würden komplett durch die Grafikkarte gesteuert. (Auch ausm Chip Bericht)

Aber richtig schlau werd ich daraus auch nich...

Nightspider
2008-08-12, 21:17:28
Achso. Nicht das dann die Hersteller so faul werden und nichtmal mehr ein OSD integrieren.