PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Grafikkarte bald überflüssig? UbiSync von Samsung


Gmax
2007-04-04, 00:32:46
Eine Grafikkarte wird nicht mehr benötigt, die Software übernimmt die Darstellungsarbeit und soll laut Samsung billige OnBoard-Lösungen in Sachen Bildqualität sogar in den Schatten stellen.

http://www.prad.de/new/news/cebit2007_special_teil4.html

Für günstige Rechner oder wo man sehr viele Monitore braucht, scheint mir dies eine wirkliche Alternative zu sein.

Gast
2007-04-04, 00:37:58
Die Grafikkarte wird sicher nicht überflüssig... denn das berechnen kostet CPU-Zeit, die an anderer Stelle fehlt.

Ich kann mir vorstellen, das es recht schnell eng wird, wenn man z.B. mit Sachen wie Video oder Grafikbearbeitung anfängt, denn da ist die CPU anderweitig beschäftigt um noch 3+++ Monitore zu versorgen.

drmaniac
2007-04-04, 10:25:58
In Zeiten von Dualcore für die Massen und kommenden Quadcore CPUs in Verbindung mit Einsparungen (Millionen Office PCs für Büros die keine 3D Spiele können müssen, günstigere Produktion von Mainboards usw) könnte das in der Tat eine Richtungsänderung für die Zukunft bedeuten.

Allerdings kommen ja in Zukunft auch integrierte Grafikchips in Intel als auch AMD CPUs (Intel sogar schneller)... was dem ganzen dann wieder widersprechen würde?

ESAD
2007-04-04, 11:07:26
hm mal überlegen usb bietet 480mbit theoretisch der hmdi 1.3 standard 10gb+?

hd filme ruckelfrei sind sicher nicht in hd auflösung möglich never

wird wohl für 800*600 reichen oder wenn nur bildveränderungen übertragen werden wohl auch noch für 1024*786

Tybalt
2007-04-04, 15:58:18
Das ganze hat nur einen üblen nachgeschmack. Das ganze erfüllt sicher nicht alle aktuellen specs wie zB directx10. Somit fällts für oems ziemlich flach. Die suchen ja nicht das günstigste, sondern auch eine gute featurelist um sich die gunst des käufers zu ermogeln.

Gast
2007-04-04, 19:40:34
office und büro ist schonmal gesagt worden...

dx 10 braucht da keiner,

da will man eher verlässliche technik und nicht immer das neuste, beste, größte oder den längsten ;)

in meinem office pc ist ne PCI ati 3d charger 4 mb. (dx 5 oder 6 glaub?)

Gast
2007-04-04, 19:43:41
aber linux/windows etc. muss da auch erstmal drauf
(dazu braucht man dann eine^^)

schon etwas sinnfrei (wenn das nicht schon ab sys start werkelt)

Avalox
2007-04-04, 20:24:21
hm mal überlegen usb bietet 480mbit theoretisch der hmdi 1.3 standard 10gb+?

hd filme ruckelfrei sind sicher nicht in hd auflösung möglich never



Nein, dass ist Quatsch. HD Video braucht max 54.0 Mbit/s, i.d.R. sogar nicht mehr als 30.24 Mbit/s. Mehr ist nicht nötig um HD Video, egal ob aus einem Stream, von BluRay oder HDDVD in voller Qualität zu übertragen. Da reicht USB 2.0 dicke aus.

Die Differenz zu HDMI wird bei der Übertragung heute eben umsonst verbraten, weil der Monitor ein dummes Gerät ist. Ganz sicher wird die USB Lösung einen entsprechenden Video Codec in Hardware im Monitor unterstützen.

Die Bandbreite für Spiele reicht dann auch, wenn der Stream im Vorfeld gut komprimiert übertragen wird.

Die Grafikkarte verschwindet ja nicht ganz, diese wandert nur zum Teil eben in den Monitor. Das ist für den Benutzer schön einfach und sicherlich verständlicher als heute unübersichtliche Grafikkarten. Displays werden eh so billig, dass sich Monitor Hersteller sicherlich fragenm wie sie morgen noch ihren Umsatz einfahren sollen. Da wird sicherlich schon lange begehrlich auf die Grafikkarten geguckt.

Die gelbe Eule
2007-04-04, 20:43:26
Wäre genau der richtige Schritt um unter 2D Strom zu sparen und so brauch man sich bei VGA Karten darum nicht mehr zu kümmern.

LeChuck
2007-04-04, 20:56:08
Dafür braucht der Monitor dann mehr :)

huha
2007-04-04, 21:53:36
Die Idee ist nicht dafür gedacht, um Bürorechner mit vielen Monitoren zuzustopfen, sondern als günstige Lösung für die Erweiterung von Rechnern, die nur sehr eingeschränkte Erweiterungsmöglichkeiten haben, d.h. hauptsächlich Notebooks.
Die im Bildschirm verbaute USB-Graphikkarte ist natürlich absolut nicht 3d-fähig und außerdem gibt's ein kleines Problem: Die CPU berechnet schon seit Ewigkeiten das 2d-Bild, manchmal etwas Hardwarebeschleunigt, aber nicht nennenswert, da liegt also nicht das Problem. Es liegt vielmehr in der Architektur des USB, der ursprünglich als Ersatz für den seriellen/paralellen Anschluß gedacht war, also für Low-Bandwidth-Zubehör wie Consumerdrucker, Consumerscanner (die professionellen hatten SCSI), Mäuse und Tastaturen.
Als Anschluß von Dingen, die eine hohe Bandbreite benötigen, wie Massenspeicher und optischen Laufwerken gab es ja SCSI und dann Firewire, USB ist vom Konzept her aber überhaupt nicht dafür geeignet. Natürlich kann man die Datenrate erhöhen, das macht das Konzept aber nicht besser.
Das ist das Hauptproblem des Bildschirms: Das Konzept von USB-Graphikkarten ist einfach scheiße.
Der Bus wird ständig mit Graphikdaten vollgemüllt, was die CPU stark belastet (USB ist nicht so konstruiert, daß die CPU wenig zu tun hat und die Hardware viel übernimmt) und natürlich andere Transfers am Bus langsam macht, beispielsweise externe Platten und Laufwerke.
Sowas also stationär einzusetzen oder ernsthaft darüber zu diskutieren, inwiefern dies Graphikkarten ersetzen kann, halte ich für ein wenig unsinnig.

-huha

Gast
2007-04-04, 22:14:15
http://www.prad.de/new/news/cebit2007_special_teil4.html

Für günstige Rechner oder wo man sehr viele Monitore braucht, scheint mir dies eine wirkliche Alternative zu sein.
Das ist Bullshit von irgendwelchen n00bs verbreitet!

Die 'Dinosaurier' von der c't haben dieses Gerät vor ein paar AUsgaben getestet und sind zu dem Fazit gekommen, das das Konzept in der Theorie nicht schlecht ist, in der Praxis aber fürn Arsch bzw ziemlich eingeschrängt zu nutzen.
Huha hat einiges schon genannt, das die GraKa keinerlei Intelligenz und damit 2D-Hardwarebeschleunigung mitbringt kommt dazu.

XtraLarge
2007-04-05, 00:24:56
Ich denke da wäre man mit einem QuadCore mit integrierter Grafik besser dran. Zwei Kerne CPU, zwei Kerne GPU oder so ähnlich. Wäre Leistungstechnisch sicher besser. Frage ist nur, ob dass so einfach funktioniert. Mal von der Kühlung ganz abgesehen...Aber wie schon gesagt, frisst alleine schon USB als solches CPU-Leistung. Wenn ich da an AeroDingenskirchen denke...Ich glaube der Leistungverlust wäre merklich.

Wobei, wenn man dem Betriebssystem generell beibringen könnte, von einem Quadcore zB zwei Kerne für die Bilddarstellung zu reservieren, könnte das wohl eine brauchbare Sache sein.

Thanatos
2007-04-05, 00:35:31
In Zeiten von Dualcore für die Massen und kommenden Quadcore CPUs in Verbindung mit Einsparungen (Millionen Office PCs für Büros die keine 3D Spiele können müssen, günstigere Produktion von Mainboards usw) könnte das in der Tat eine Richtungsänderung für die Zukunft bedeuten.

Allerdings kommen ja in Zukunft auch integrierte Grafikchips in Intel als auch AMD CPUs (Intel sogar schneller)... was dem ganzen dann wieder widersprechen würde?

Gut, es mag wohl sein, dass es für einen "normalen Bürohansel" absolut ausreicht, vor allem da ja heuzutage selbst die kleinsten aktuellen CPUs sich im normalen Bürobetrieb (Word, Excel, Terminplanung ahoi!) zu 95% langweilen, dennoch gibt es auch noch Kunden, die zwar überhaupt keine Grafikleistung brauchen, aber CPU Leistung ohne ende.

huha
2007-04-05, 01:52:52
Ich denke da wäre man mit einem QuadCore mit integrierter Grafik besser dran. Zwei Kerne CPU, zwei Kerne GPU oder so ähnlich.

Und was soll das bringen? Eine x86-CPU ist kein Vektorprozessor und für Graphik braucht man nunmal Vektorprozessoren. Wenn der x86 Graphik machen muß, kann er dies nicht besonders schnell, da hilft's auch nichts, wenn du die Hälfte deiner CPU-Kapazität für Graphik reservierst. Sowas ist dann interessant, wenn es um sehr genaues Rendering geht, da die CPU eben nicht auf so rigide Genauigkeiten angewiesen ist wie die GPU, dann kann man sich aber auch genügend Zeit lassen.

Wäre Leistungstechnisch sicher besser. Frage ist nur, ob dass so einfach funktioniert. Mal von der Kühlung ganz abgesehen...Aber wie schon gesagt, frisst alleine schon USB als solches CPU-Leistung. Wenn ich da an AeroDingenskirchen denke...Ich glaube der Leistungverlust wäre merklich.

Die im Bildschirm verbaute USB-Graphikkarte kann kein 3d und dementsprechend natürlich auch kein Aero. Die CPU-Belastung bei Aero wäre übrigens nichtmal besonders viel höher, da ja (vermute ich jetzt einfach mal) das letztendliche Bild über USB an die Karte geschickt wird und diese das nur noch darstellt.


Wobei, wenn man dem Betriebssystem generell beibringen könnte, von einem Quadcore zB zwei Kerne für die Bilddarstellung zu reservieren, könnte das wohl eine brauchbare Sache sein.

Ich weiß nicht, was das soll, ehrlich. Man braucht auf jeden Fall einen Chip, der die Bilddaten in etwas umwandelt, was der Monitor darstellen kann. Und wenn man den sowieso braucht, dann kann man eigentlich gleich noch eine kleine, bereits entwickelte Graphikeinheit mit dazuhauen und fertig ist der Spaß. Chipsätze gibt's sowieso und Chipsatzgraphik erfreut sich großer Beliebtheit. Das Zeug ist so performant und obendrein noch so billig, daß man überhaupt nicht auf die Idee kommen muß, mit irgendwelchem CPU-Rumgefrickel zu versuchen, diese Kombination zu ersetzen.

Graphikdarstellung in Echtzeit wird heutzutage von der Graphikkarte übernommen, die optimierte Prozessoren dafür bereitstellt. Die Zeiten des Software-Rendering, was hier als "neue Idee" propagiert wird, sind für Echtzeitanwendungen vorbei. Sowas gab's mal vor einigen Jahren, aber auch Quadcores können daran nichts ändern, weil die x86-Architektur einfach nicht für effiziente Graphikberechnung geeignet ist.

Der Bildschirm ist nichts anderes als ein Verbund von USB-Graphikkarte und Bildschirm. Sowas ist sehr praktisch, wenn man beispielsweise am Laptop einen zweiten Bildschirm anschließen will, um noch mehr Platz für seine Spreadsheets zu haben oder andere Späße. Es ist ein nettes Feature, das allerdings Geld kostet--es ist ja nicht so, daß es das gratis mit dazu gibt.
Wirklich sinnvoll ist der Spaß IMHO bei einem Bildschirm nicht--der US-Bus wird zu stark belastet, die CPU rechnet für nichts und wieder nichts und der letztendliche Nutzen ist nur in Ausnahmefällen vorhanden und dann ohnehin eher zweifelhaft.
Aaaber: Diese Technik sollte in Beamern verbaut werden. Das wäre sehr schön. Einfach USB-Kabel in den Rechner stecken und fertig. Kein lästiges Konfigurieren irgendwelcher obskuren Einstellungen, sondern nur einstecken und loslegen.

Allerdings: Bitte seht den Spaß nicht als Graphikkarten-Ersatz, wenn es keiner ist. Es ist eine Möglichkeit, den Bildschirm irgendwo anzuschließen, wo es nicht möglich oder nicht praktikabel ist, einen Bildschirm über VGA oder DVI anzuschließen. Sehr kleine Notebooks beispielsweise, die man zuhause gern wie einen vollwertigen PC nutzen will, sind ein gutes Beispiel für eine der Anwendungen, die sich erschließen. Als 3d-Graphikkarte ist es aber nicht gedacht, da das komplett sinnlos ist. USB hat hierfür eine viel zu geringe Bandbreite, als daß sich die Daten sinnvoll übertragen ließen und Softwarerendering ist schon seit 10 Jahren total out. ;)

-huha

Gast
2007-04-05, 16:25:48
Da ists aber sinniger, mit Docking Station zu arbeiten (wenn möglich) oder gar eine Cardbus oder Xpresscard Grafikkarte zu benutzen.

Ja, sowas gibts auch, bzw gabs, zumindest Cardbus .

ESAD
2007-04-05, 17:00:45
Nein, dass ist Quatsch. HD Video braucht max 54.0 Mbit/s, i.d.R. sogar nicht mehr als 30.24 Mbit/s. Mehr ist nicht nötig um HD Video, egal ob aus einem Stream, von BluRay oder HDDVD in voller Qualität zu übertragen. Da reicht USB 2.0 dicke aus.

Die Differenz zu HDMI wird bei der Übertragung heute eben umsonst verbraten, weil der Monitor ein dummes Gerät ist. Ganz sicher wird die USB Lösung einen entsprechenden Video Codec in Hardware im Monitor unterstützen.

Die Bandbreite für Spiele reicht dann auch, wenn der Stream im Vorfeld gut komprimiert übertragen wird.

Die Grafikkarte verschwindet ja nicht ganz, diese wandert nur zum Teil eben in den Monitor. Das ist für den Benutzer schön einfach und sicherlich verständlicher als heute unübersichtliche Grafikkarten. Displays werden eh so billig, dass sich Monitor Hersteller sicherlich fragenm wie sie morgen noch ihren Umsatz einfahren sollen. Da wird sicherlich schon lange begehrlich auf die Grafikkarten geguckt.

eben gut komprimiert hast du schonmal hd video komprimiert? 1280*720 in h264 mit 8mbit auf einem Athlon X2 mit 2,5 ghz mit 1-3 FPS oho da geht ja richtig was weiter (es wurden beide cores verwendet)....
natürlich kann man jetzt sagen das ist ein extrembeispiel und ja das ist es auch aber wie sieht es nun aus der stream kommt daher muss aufwendig komprimiert werden um ihn schnell genung mit 60 bildern pro sekunde übertragen zu können und eine nicht unerhebliche rechenleistung wid auch noch benötigt umd das wieder zu decodieren ... und das ganze bitte auch verlustfrei denn wer sieht gerne artefakte auf dem bildschirm --> ihmo nicht praxistauglich

Gast
2007-04-05, 17:14:16
eben gut komprimiert hast du schonmal hd video komprimiert? 1280*720 in h264 mit 8mbit auf einem Athlon X2 mit 2,5 ghz mit 1-3 FPS oho da geht ja richtig was weiter (es wurden beide cores verwendet)....
natürlich kann man jetzt sagen das ist ein extrembeispiel und ja das ist es auch aber wie sieht es nun aus der stream kommt daher muss aufwendig komprimiert werden um ihn schnell genung mit 60 bildern pro sekunde übertragen zu können und eine nicht unerhebliche rechenleistung wid auch noch benötigt umd das wieder zu decodieren ... und das ganze bitte auch verlustfrei denn wer sieht gerne artefakte auf dem bildschirm --> ihmo nicht praxistauglich

nur hat das eine mit dem anderen nix zu tun

und keiner will es in h264 encoden

und schon garnicht mit nem x2 oder core2
(dafür gibts chips die das realtime können ohne probleme...und viel billiger sind)

ESAD
2007-04-05, 20:30:11
hm mal überlegen universaleinsaetzbare usb lösung äh da ist nix mit speziellen chips weil wen ich das brauch kann ich mir auch gleich ne ipg raufhauen....

Avalox
2007-04-05, 20:41:07
eben gut komprimiert hast du schonmal hd video komprimiert? 1280*720 in h264 mit 8mbit auf einem Athlon X2 mit 2,5 ghz mit 1-3 FPS oho da geht ja richtig was weiter (es wurden beide cores verwendet)....


Ne. Du brauchst eben nicht komprimieren. Es gibt keinen Weg wie HD Video zu dir in unkomprimierter Form kommt. Es gibt keine HD Video Quelle welche über 30MBit/s (54MBit) liegt. Du brauchst es gar nicht komprimieren, du darfst es nur nicht dekomprimieren.
Wenn ein Monitor eine eigene Decoder Logik besitzt, dann ist der Stream einfach 1:1 zu den Monitor zu senden. So wie du heute schon einen Dolby Digital oder DTS Stream 1:1 von deiner DVD zu einem externen Receiver sendest.
Der gigantische Vorteil ist dabei das DRM. Im Rechner wird der Stream gar nicht mehr entschlüsselt. Im gefährlichen PC sind keine ungeschützten Daten mehr vorhanden. Es besteht nicht mal mehr die Möglichkeit die HD Bilder analog abzugreifen, weil Anzeige und Decoder ein und das selbe Gerät ist.
Ein Monitor, bzw. TV mit eigenen Decoder ist der Traum der Content Industrie.
HD Decoder werden in kurzer Zeit billigst werden, es wird also auch kein Kostenproblem mehr sein.


und das ganze bitte auch verlustfrei denn wer sieht gerne artefakte auf dem bildschirm --> ihmo nicht praxistauglich

Artefakte? Noch kann jedes DVD Bild bei weitem besser aussehen, als dass, was von einer Highend Graka in Echtzeit berechnet werden kann, trotz Kompressionsartefakte. Von HD DVDs gar nicht erst zu sprechen.
Die Kompression bei USB 2.0 kann im Faktor 10 schlechter sein, als das was von einer BluRay, bzw. einer HDDVD geliefert wird und kommt immer noch über den Bus.

Gast
2007-04-06, 12:07:54
Nein, dass ist Quatsch. HD Video braucht max 54.0 Mbit/s, i.d.R. sogar nicht mehr als 30.24 Mbit/s. Mehr ist nicht nötig um HD Video, egal ob aus einem Stream, von BluRay oder HDDVD in voller Qualität zu übertragen. Da reicht USB 2.0 dicke aus.

Die Differenz zu HDMI wird bei der Übertragung heute eben umsonst verbraten, weil der Monitor ein dummes Gerät ist. Ganz sicher wird die USB Lösung einen entsprechenden Video Codec in Hardware im Monitor unterstützen.

Die Bandbreite für Spiele reicht dann auch, wenn der Stream im Vorfeld gut komprimiert übertragen wird.

Die Grafikkarte verschwindet ja nicht ganz, diese wandert nur zum Teil eben in den Monitor. Das ist für den Benutzer schön einfach und sicherlich verständlicher als heute unübersichtliche Grafikkarten. Displays werden eh so billig, dass sich Monitor Hersteller sicherlich fragenm wie sie morgen noch ihren Umsatz einfahren sollen. Da wird sicherlich schon lange begehrlich auf die Grafikkarten geguckt.

Nur zu dumm das dann das Gerät de Strom Decodieren muss, USB Reicht eben nicht! Selbst ein 640x480 dürfte da heftigst Ruckeln, da die Daten Unkomprimiert übertragen werden müssen ;) Sonst hatte man nur die Grafikkarte über USB angeschlossen und das am USB hängende Gerät die Arbeit machen müsste (PCIe hat übrigens 8GB/s, USB schafft ca. 30MB/s).

Also erst denken dann Schreiben ;)

Avalox
2007-04-06, 13:14:14
Nur zu dumm das dann das Gerät de Strom Decodieren muss, USB Reicht eben nicht! Selbst ein 640x480 dürfte da heftigst Ruckeln, da die Daten Unkomprimiert übertragen werden müssen ;) Sonst hatte man nur die Grafikkarte über USB angeschlossen und das am USB hängende Gerät die Arbeit machen müsste

UbiSync Montiore dekomprimieren. Wenn Samsung erzählt es ist keine Grafikkarte mehr nötig, dann meinen diese die Grafikkarte im Rechner. Natürlich ist ein Grafikadapter nötig, dieser steckt dann im Display.
Die Idee dabei ist, dass Samsung in Zukunft Grafikadapter & Monitore verkauft.
Dieser Grafikadapter ist heute noch einfach, mehr als 50€ Aufpreis soll der Montior nicht kosten. Die nächsten Versionen werden leistungsfähigere Decoder bekommen.

UbiSync ist doch nicht die einzige Erfindung, welche in diese Richtung geht. Es gibt Media Clients für Video, Musik etc. Diese werden üblicherweise an LAN, gar WLAN angeschlossen. Die Bandbreite ist sogar noch niedriger als am USB 2.0 Bus.
Natürlich möchte aber jeder seinen Beamer Kabellos betreiben. Das geht nur mit entsprechenden Decoderstufen im Endgerät. Der Hersteller freut sich, verkauft er doch ein höherwertiges Gerät, der Kunde freut sich hat er keinen Kabelsalat und einen genau abgestimmten Decoder für sein Anzeigegerät, der sich problemlos verhält.

Videoschnittstelle sind hochgradig uneffektiv. Benötigen höchste Bandbreiten, sind damit in Länge und Verfügbarkeit begrenzt und übertragen damit zum grössten Teil völlig redundante Informationen. Piraterieanfällig sind diese zudem.
Das Ende der klassischen Videoschnittstelle wird kommen.

ESAD
2007-04-06, 14:47:40
Ne. Du brauchst eben nicht komprimieren. Es gibt keinen Weg wie HD Video zu dir in unkomprimierter Form kommt.

doch ... selbst erstellten bzw gerenderten kontent ... würd sagen das ist unkomprimiert bis zu geht nimma gg (hab ich schon öfters gemacht ich verweise hierzu z.b. auf meinen terragen link in der sig)

dieser konten der z.b. für das video in meine terragen animation genommen wurde wurde mit lagarith lossless 1.3 komprimiert.
Hat eine länge von 1minute und 8 Sekunden und ist ein sehr langsames und gut zu komprimierendes filmchen in 1280*720 welches auf höchster stufe noch 1gb belegt und das bei 25fps wie das z.b. bei shootern mit viel aktion und 60 bilder pro sekunde in die höhe schnalzt will ich garnicht wissen....

und dvd bilder ein tft bzw auch crt (wenn auch weniger schlimm) wo das dvd bild läuft und danach das selbe als dann in hd ... man merkt die unterschiede und zwar deutlich zumindest bei den entfernungen welche von den benutzern normalerweise vor dem bildschirm eingenommen wird.

und ja dvd bieten besser bilder als was grafikkarten liefern... die bilder rauschen haben artefakte und zeigen teilweise grottigen interlacing ... lassen wir das ...

und wir sind uns darin einig das man zumindet 1280*1024 übertragen muss damit das einen sinn hat. und das geht nicht...
usb ist zu langsam um das unkompriemiert übertragen zu können außerdem würde die cpu über maßen belastet,
komprimiert man es gibt es das problem das große auflösungen ebenfalls enrome rechenleistung benötigen ist diese muss von der cpu geleistet werden oder von dedizierter hardware welches die kosten in die höhe treibt (und den stromverbrauch) und ein usb kabel wird wohl wahrscheinlich wieder nicht reichen um die datenmenge zu übertragen möchte man mehr als etwas mit word bzw. excel machen,
komprimiert man es verlustbehaftet reich zwar die bandbreite aber man braucht wieder die hardwareleistung (cpu bzw. spezielle chips) und die bildqualität leidet (da kauft man super tolle hd dvd inhalte mit über drüber auflösung um auch die letzten details erkennen zu können und dann komprimiert sie mir der bildschirm weg :| ).

analogkopien sind sowieso immer möglich ... mikrofone und kameras können alles aufzeichenn was auch ich hören bzw. sehen kann. .... ganz davon zu reden dass digitale kopien bis heute kein problem sind gg (trotz aller Anstrengungen der Industrie)

möchte man jetzt das argument aufführen das die firmen kosten sparen wenn sie solche monitore anschaffen weil man keine grafikkarte brauch ... da kann ich nur sagen toll jetzt brauch ich stat der schon üerball eingebauten und standardisierten und problemlos arbeitenden ipg an welche ich alles anschließen kann von uralt crts bis zu neuen tfts neue extra hardware im computer und im bildschirm welche sogar wahrscheinlich mehr strom kosten wird als wenn diese aufgabe eine 5 watt ipg erledigt.


und nur als anerkung dazu das videoschnitstellen in der länge begrenzt sind ... hab schon 60m vga kabel in aktion gesehen waren zwar drei repeater dazwischen aber es war ein super bild ohne rauschen, etc was man erwarten sollte bei solchen längen.

UbiSync ist doch nicht die einzige Erfindung, welche in diese Richtung geht. Es gibt Media Clients für Video, Musik etc. Diese werden üblicherweise an LAN, gar WLAN angeschlossen. Die Bandbreite ist sogar noch niedriger als am USB 2.0 Bus.
Natürlich möchte aber jeder seinen Beamer Kabellos betreiben. Das geht nur mit entsprechenden Decoderstufen im Endgerät. Der Hersteller freut sich, verkauft er doch ein höherwertiges Gerät, der Kunde freut sich hat er keinen Kabelsalat und einen genau abgestimmten Decoder für sein Anzeigegerät, der sich problemlos verhält.

musik ja video ja aber alles verlustbehaftet komprimiert und auf niedrigen auflösungen und das kann man dem kunden nicht antun möchte er es für spiele bzw. hd videos nutzen

Gast
2007-04-06, 15:31:14
Videoschnittstelle sind hochgradig uneffektiv. Benötigen höchste Bandbreiten, sind damit in Länge und Verfügbarkeit begrenzt und übertragen damit zum grössten Teil völlig redundante Informationen. Piraterieanfällig sind diese zudem.
Das Ende der klassischen Videoschnittstelle wird kommen.

Du vergisst aber eins sie sind extrem flexible, man kann keine neuen Videocodecs abspielen etc. Games sind überhaupt nicht denkbar... es ist eine Todgebut ;)

Avalox
2007-04-07, 00:10:08
doch ... selbst erstellten bzw gerenderten kontent ... würd sagen das ist unkomprimiert bis zu geht nimma gg (hab ich schon öfters gemacht ich verweise hierzu z.b. auf meinen terragen link in der sig)



Selbst gerenderte Videos sind nicht grade eine Standardanwendung. Da wiegen Spiele schon mehr.

Aber wie geschrieben UbiSync komprimiert den Stream. Auf der PC Seite packt der Prozessor den Stream ein, auf der anderen Seite packt der Monitor diesen wieder aus.

Sicher frisst das CPU Ressourcen, aber für irgendwas sinnvolles muss die neugewonnene CPU Mehrkern Leistung ja benutzt werden.

Der Spielesound hat es vorgemacht. Erst dedizierte und sehr teure Hardware. Als die CPU Leistung hoch genug war um hinreichenden Sound zu rendern, wurde die extra Soundprozessing Hardware entfernt. Musste man die zuvor bekannte Qualität dabei erreichen? Nein. Der Sound wurde schlechter, er war aber hinreichend. Als dann die CPU Leistung weiter stieg, kamen die Lösungen welche mit CPU Leistung den Audio Strom in Echtzeit mit CPU Leistung packten. Genau so wird es mit der Videoanwendung auch geschehen.
Man gewinnt eines: Flexibilität und eines wird es in dem Zukunftshaus sicherlich nicht mehr geben: den PC Platz.
Warum kämpfen denn MS und Sony so verbittert um den Platz im Wohnzimmer? Nur um eine paar Spiele zu verkaufen?? Nein, weil sie wissen, dass der PC der Zukunft aus seiner Abgeschiedenheit in den Wohnbereich umzieht. Du wirst in Zukunft eine Unzahl von Mediaclients in der Wohnung haben. Ob nun im Badezimmerspiegel, im Kühlschrank der Waschmaschine, oder oder oder und überall musst du Zugriff haben und dafür wird flexibilität und WLAN benötigt. Heute werden die Weichen für die Zukunft gestellt, dort ist der fight um die ersten Plätze im Gange.
Videoschnittstellen sind schlecht, die Zukunft gehört der Datenkompression und dem Terminal/Client. Es wird nicht lange dauern, bis es HD Encoder in Hardware gegossen zu vernümftigen Preisen geben wird und auch du wirst es sicherlich geil finden, wenn das PC Spiel einfach per WLAN auf den Beamer gestreamt wird. Natürlich wird es Videoschnittstellen noch geben. Diese werden sich meistens im Gerät selber befinden und zudem properitär sein. Dem Kunden wird es dann nicht mehr interessieren.

ESAD
2007-04-07, 12:03:13
Selbst gerenderte Videos sind nicht grade eine Standardanwendung. Da wiegen Spiele schon mehr.


und den stream den die spiele erzeugen de ist automatisch komprimiert oO wenn wir auf spiele schauen dann sieht man das diese mehr und mehr den prozessor belasten durch aufwendige ki und physik mehr und mehr wird auch der multicoresupport in die spiele eingepflegt und dies führt teilweise zu beachtlichen leistungszuwächsen ... diesen vorteil zunichte machen nur damit ich meinen bildschirm an usb anschließen kann wenn es mit anderen möglichkeiten praktisch ohne performanceverlust funktioniert??

wobei spiele die last auf seiten des usb busses sogar noch ansteigen lassen durch ständig wechselnde bildfolgen und unterschiedliche frameraten welche deutlich über dem liegen was videos produzieren?

und einen qulitätsverlust kann man nur so lange dem kunden schmackhaft machen bis es ihm auffält und vorallem wenn ich mir ansehe wie z.b. aths hier im forum zurecht über die optimierungen der grafikkartenhersteller im breich texturen herzieht dann möchtest du diese hierdurch gewonne qualität einfach verschenken und dies auch noch ohne dabei etwas zu gewinnen (performacegwinne sind ja nicht möglich da man ja nicht sagen kann was jetzt bei der komprimierung verschwindet)außer das eine dafür nie gedachte schnittstelle vergwaltigt wird?

und die flexibilität die du ansprichst wird sicher nicht über usb erreicht sonder über neue kommunikationsmedien z.b. uwb der nächsten generation im pc nahen bereich und wlan der übernächsten generation im ganzen haus ganz davon zu schweigen das die daten über stromkabel und gbit ethernet bzw das neue 10gbit ethernet oder auch glasfaser übertragen werden. aber auch hier gilt ja ich übertrage musik und ja ich übertragen videodateien aber alles vorkomprimiert durch den hersteller wodurch die datenrate sinkt und zwar deutlich wobei bei vielen geräten wie z.b. dem kühlschrank noch viel weniger daten anfallen denn was soll da schon groß übertragen werden ein kleine display zum anzeigen von emails oder einem schnellen chatgespräch von mir aus auch wenns hoch kommt etwas musik aber dann? den pc steuern oder hd videos auf dem kühlschrank anschauen??? wenn ich zuviel geld hab und krampfhaft versuche es auszugeben von mir aus....

und solle der kühlschrank z.b. den server im raum darstellen der die ganze küche versorgt so sollte es doch kein problem sein diesen über eine 10 gbit schnitstelle anzubinden vorallem wenn man doch im endeffekt für jedes gerät das etwas mehr daten benötigt wieder auf kabel zurückgreifen muss da funktnetze wenn sie groß eingesetzt werden sich gegenseitig stören und sich jeder client mit den anderen die bandbreite streitig macht. und unterbrechungen des datenstroms sind in der heutigen unterhaltungsbrachen ein ko kriterium

ich egeb zu das alles flexibler wird mehr und mehr wird über funk angebunden aber der anschluss eines bildschirms über usb ist und bleibt eine schnapsidee

und wenn du auf den pc breich anspielst mit seinen onboard sound componenten die die ich bis jetzt gehört habe sind so mies das man sogar auf 10€biliglautsprechern einen unterschied zu einer z.b. audigy 2 hört und zwar wirklich hört und nicht nur sich einbildet

Gast
2007-04-07, 12:20:18
ich sehe im home bereich kein problem bei avalox vorstellungen
(wird wohl so kommen imho)

im profibereich seh ichs anders

Haarmann
2007-04-07, 22:08:06
Nicht 1€ wert diese Samsung Idee...

Wie Alles, was von dort kommt...

Erst berechnen und dann encoden um es gleich wieder zu decoden? Wo ist da der Sinn?

grandmasterw
2007-04-08, 11:23:09
Dieser Internetsurfende Kühlschrank/Badezimmerspiegel/Rasenmäher wird schon ewig vorhergesagt - ob sich so ein Schwachsinn durchsetzt, ist die Frage. Ich hoff mal nicht, da dann ganz andere Securityprobleme auf uns zukommen, und die Hersteller dieser Geräte damit oft keine Erfahrung haben. Der Kühlschrank hat nen Virus? Tja, dann brauchts einen Patch. Und bei den langen Produktzyklen von Haushaltsgeräten wird der Support teuer.

Dass die Videoschnittstellen mit der Zeit intelligenter werden, mag wohl sein. Gleichzeitig wirds aber eine starke Gegenbewegung geben, da auf diesen Dingern immer irgendwelche Patente drauf liegen, die schweineteuer sind, und für Open-Source Produkte nicht oder nur schwer nutzbar, da ja jeder Benutzer potentieller Entwickler ist. Außerdem kann niemand garantieren, dass ein Open-Source Produkt für immer die Spezifikation einhält, und nicht den ungeschützten Datenstrom ableitet. Aber die Diskussion ist eh schon eine ältere.

Was nochmal den USB-Monitor angeht: War nicht mal die Rede von einer externen PCI-E Schnittstelle? Warum nicht sowas verwenden? Der Chip im Monitor kann ja trotzdem strunzdumm sein, dafür funkt das ganze auch schon im Bios, und müllt nicht die kostbare USB-Bandbreite mit Datenschrott zu.

Im übrigen kann ich nur lachen über "mehr als 50 Euro Aufpreis werdens nicht". Wieviel Aufpreis kostet eine Onboardgrafik? Ich würd mal sagen, meistens <10 Euronen.

RavenTS
2007-04-09, 11:00:26
Was nochmal den USB-Monitor angeht: War nicht mal die Rede von einer externen PCI-E Schnittstelle? Warum nicht sowas verwenden? Der Chip im Monitor kann ja trotzdem strunzdumm sein, dafür funkt das ganze auch schon im Bios, und müllt nicht die kostbare USB-Bandbreite mit Datenschrott zu.


Das wäre sicherlich eine bessere Option, nur gibts es dafür wohl noch keinen Steckerstandard. Wenn sich das Konzept einigermaßen am Markt halten kann wird das vielleicht in folgenden Jahren als Verbesserung der Idee realisiert.