Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Was müsste getan werden, damit Linux mehr Marktanteile auf Consumer-PCs erlangt?


Seiten : 1 2 3 4 5 6 [7] 8 9 10

aufkrawall
2016-11-01, 23:19:00
Also: bei KDE vor einem Spiel compositing ganz aussetzen: alt+shift+f12.

Gut zu wissen. Allerdings hab ich auch auf dem Desktop mit dem Compositor mehr Ruckler, wenn ich mit Nvidia ForceCompositionPipeline nutze (was für eine verlässliche Tearing-Beseitigung notwendig ist). Daher muss man auf das Animations-Gedöns wohl verzichten.
Oder macht die Tasten-Kombi etwas anderes?

Edit: Ich mach die Tage mal einen Benchmark Linux vs. Windows für Talos und Dota mit den verschiedenen APIs.

iuno
2016-11-01, 23:44:35
Wie gesagt, ich habe nur Erfahrung mit freien Treibern, kann dazu also leider nichts sagen.
Die Kombi schaltet das compositing aus, also Effekte wie Transparenz, Animation, Fensterschatten und auch V-Sync

lumines
2016-11-02, 13:04:52
@lumines: inwiefern? Ich nutze wieder KDE kurz nachdem Plasma 5 kam. Ja, anfangs hat es gehakt, inzwischen bin ich aber recht zufrieden. Ich muss aber auch zugeben, dass ich "ordentliche" Hardware (i7 iGPU und Hawaii) und aktuell auch kein Multi Monitor Setup habe.
Was ist denn mit Wayland deutlich besser? Und wieso sprichst du Weston an, afaik bedient sich kwin nicht daran?

X11 und der X-Server sind ein Relikt aus der Steinzeit. Wayland räumt mit vielen Bremsen auf.

iuno
2016-11-02, 13:41:14
Das ist klar :D ich wollte von dir wissen, wo genau es sich im aktuellen Stadium wirklich besser anfuehlt

BBig
2016-11-02, 15:09:28
Das ist klar :D ich wollte von dir wissen, wo genau es sich im aktuellen Stadium wirklich besser anfuehlt


Naja, du kannst es selber antesten:
https://getfedora.org/

Beim Login dann Wayland-Session auswählen.
Redhat selber sagt, es sei schon ạlltagstauglich.

iuno
2016-11-02, 15:12:25
gnome != kde
natuerlich kann ich es selber testen, ich will aber wissen wie er zu der Meinung kommt. :rolleyes:

aufkrawall
2016-11-02, 15:19:31
Was man halt so alltagstauglich nennt. Wenn ich keinen proprietären OGL-Treiber oder einen Vulkan-Treiber (egal ob OS oder proprietär) habe, ist das für mich nicht alltagstauglich.

Ganon
2016-11-02, 15:25:45
Auch das sind reine NVidia-Probleme ;)

aufkrawall
2016-11-02, 15:28:34
Mit AMD gibts in der Praxis andere Probleme, habe ich hier schon geschildert. Mit Nvida konnte ich wenigstens mal Vulkan auf Linux in Aktion sehen, der AMD GPUOpen-Treiber lief hier mit meinem Monitor gar nicht erst.

Ganon
2016-11-02, 15:42:01
Ändert nichts dran, dass Wayland durchaus alltagstauglich ist und OpenGL und Vulkan unterstützt. Nur halt nicht auf NVidia, aber dort geht ja nicht mal Xorg ohne root-Rechte.

BBig
2016-11-04, 17:41:20
[Mesa-dev] [ANNOUNCE] mesa 13.0.0 (https://lists.freedesktop.org/archives/mesa-dev/2016-November/133978.html)

Hi all

It's time to announce Mesa 13.0.0.

This release has huge amount of features, but without a doubt the biggest
ones are:
- Vulkan driver for hardware supported by the AMDGPU kernel driver*
- OpenGL 4.4/4.5 capability, yet the drivers may expose lower version due to
pending Khronos CTS validation.

- OpenGL ES 3.1 on i965/hsw
- OpenGL ES 3.2 on i965/gen9+ (Skylake and later)
- More than a dozen GL extensions across the drivers

- GLX: Windows-DRI support
- EGL: support for EGL_KHR_debug support and KHR_no_config_context
- EGL: official support for EGL_MESA_platform_surfaceless
- EGL: improvements and fixes for the Wayland, Android and X11/DRI3 backends

- VAAPI: H264 encode support
- OMX: H265 decode support

Notes:
- The Intel Vulkan driver json manifest file includes the CPU architecture as
part of its name.

- libudev is no longer required by mesa - libdrm is used instead. Older
versions of libdrm may have bugs, so use the latest one available.

- Building mesa with flex 2.6.2 is currently not possible. Please use 2.6.1
or older.

- Some parts of mesa may still require third party tools - python2 for SWR,
xxd for Intel's aubinator. Please report bug if you see any more.

aufkrawall
2016-11-05, 21:02:33
Kurzer Benchmark mit Talos Principle
WQHD, Ultra-Details, unlimited render resolution, Treiber-Standard, GTX 1070 OC, 375.76 Windows vs. 375.10 (Linux), Anfangsstelle des Demo-Levels, Standard-FOV

Windows 10:
dx11: 78fps
ogl: 47fps
vulkan: 69fps

Linux:
vulkan: 68fps
ogl: 47fps

Kann zwar nicht mit DX11 mithalten, aber immerhin bringt der Vulkan-Renderer Linuxern auf Nvidia schon mal ~45%.
OpenGL und Vulkan laufen allerdings nicht ohne kleine Hakler zwischendurch, DX11 fühlt sich wesentlich sauberer an.

Matrix316
2016-11-23, 22:18:58
Also wer mal ein schönes Linux probieren will, sollte mal das neue Zorin 12 Core antesten:

http://zorinos.com/download/#core

https://abload.de/img/unddffffftowkhn.jpg (http://abload.de/image.php?img=unddffffftowkhn.jpg)
https://abload.de/img/gnome3nt2suk8.jpg (http://abload.de/image.php?img=gnome3nt2suk8.jpg)

(man kann verschiedene Farbthemen auswählen und muss nicht schwarz-lachsrot wählen ;))

Radeonator
2016-11-24, 10:41:40
Die meisten Menschen denken halt, es wäre immer noch sau kompliziert mitLinux umzugehen. Es gibt ja auch durchaus Distros, die immer noch Probleme mit diverser Hardware haben. Gerade Windows Usern, sollte man immer Distros mit mit Ähnlicher Benutzerführung wie Windows an die Hand geben (KDE, XFE &Co)

Man könnte der Mehrheit erklären, das auf ihrem Handy auch "nur" Linux läuft.

Aufklärung und die Möglichkeit Distros im Supermarkt zu bekommen z.B.

Acid-Beatz
2016-11-24, 23:18:10
Die meisten Menschen denken halt, es wäre immer noch sau kompliziert mitLinux umzugehen.
Kompliziert ist es auch nicht aber man muss sozusagen auch das Know-How haben, dass man eine Distribution löscht und es mit einer anderen probiert, wenn einem etwas nicht passt - ich zum Beispiel HASSE das hochgelobte Ubuntu für Anfänger ...
[jeder "normale" User geht natürlich davon aus, dass jedes andere Linux ziemlich ähnlich ist, als das, was einem nicht gefällt ... ]

aufkrawall
2016-11-25, 00:50:55
Mal die neue OpenSuse Leap 42.2 angeschaut
-Maus funktioniert richtig mit SecureBoot
-der Installer bietet einem die Wahl an, Noveau nicht zu installieren und warnt sogar vor diesem
-die Installation des proprietären NV-Treibers per Mausclick aus dem empfohlenen Repository hat einwandfrei auf der 1070 geklappt
-aus dem Packman MPV/SMPlayer sowie Codecs installiert (libav & ffmpeg)
-MPV funktioniert einwandfrei mit den gleichen Qualitätssettings wie unter Windows (mit vdpau-copy)

Not bad.

lumines
2016-11-25, 00:58:31
Man könnte der Mehrheit erklären, das auf ihrem Handy auch "nur" Linux läuft.

Sollte man nicht, weil es nicht stimmt. Kein normaler Nutzer interagiert mit einem Kernel. Unter Windows bekommst du gar Ubuntu komplett ohne Linux.

iuno
2016-11-25, 19:31:00
Davon mal abgesehen ob man es so "erklaeren" soll: Natuerlich stimmt das. Klar hat google quasi den kompletten userspace einer typischen gnu/linux Distri ersetzt, trotzdem benutzt man noch den Linux Kernel. haette man da von Anfang an eine Eigenentwicklung oder etwas weniger verbreitetes/funktionales genommen, waere doch deutlich mehr Aufwand noetig gewesen. Man waere dadurch vielleicht langsamer am Markt gewesen, es waere teurer geworden oder anderweitig problematisch, etwa durch fehlenden/zoegerlicheren Hardwaresupport.
Aus dem genannten Grund, dass es fuer die Mehrheit aus Benutzersicht keinen Zusammenhang gibt, wuerde ich so aber auch nicht Argumentieren.

Und man bekommt auch kein "Ubuntu fuer Windows", aber das weisst du auch ganz genau. Ubuntu ist immer noch als eine Linux-Distri definiert und nicht als ein paar userspace tools/libs auf einem beliebig eingeschraenkten Unterbau.

lumines
2016-11-25, 19:41:23
Und man bekommt auch kein "Ubuntu fuer Windows", aber das weisst du auch ganz genau. Ubuntu ist immer noch als eine Linux-Distri definiert und nicht als ein paar userspace tools/libs auf einem beliebig eingeschraenkten Unterbau.

Seit wann und von wem?

Selbst wenn das stimmen würde, was ist dann Debian?

Matrix316
2016-11-25, 21:00:01
Sollte man nicht, weil es nicht stimmt. Kein normaler Nutzer interagiert mit einem Kernel. Unter Windows bekommst du gar Ubuntu komplett ohne Linux.

Warum sollte ein User eines Desktop OS mit dem Kernel interagieren? Das sollte die Software machen. Das beste Linux wäre eines wo der User garnicht merkt, dass er mit einem Linux arbeitet. Und deswegen ist Android schon garnicht so schlecht. So ähnlich sollte ein Desktop Linux aussehen. Nur mit Fenstern und so. Aber was Linux am allermeisten braucht ist die Creative Suit und Microsoft Office. Jetzt wo der SQL Server und Visual Studio (so eine Art Visual Studio) dafür schon konvertiert wird, kann ja Office garnicht mehr so weit sein. :)

Ganon
2016-11-25, 22:14:07
Microsofts Interesse an Linux hört doch bei der Cloud direkt wieder auf.

lumines
2016-11-25, 22:33:33
Das beste Linux wäre eines wo der User garnicht merkt, dass er mit einem Linux arbeitet.

Merkt er auch schon jetzt nicht. Ich kann dir Linux durch kFreeBSD in Debian tauschen und du würdest keinen Unterschied merken.

Du interagierst mit dem GNU-System und deiner Desktop-Umgebung. Deshalb ist es auch Quatsch zu sagen, dass Android „auch nur Linux ist“. Wer dann von Android kommt und sich z.B. Ubuntu anguckt, wird erst einmal fragen, wo WhatsApp, Instagram und die Facebook-App sind. Das Userland ist so direkt eben erst einmal komplett anders.

Ganon
2016-11-25, 22:54:25
Für ein Desktop-Linux mit Office und Co. gibt es ja z.B. RemixOS. Sind dann natürlich auch nur die Android-Anwendungen, aber eben im Android-Desktop Modus. Dürfte auch für einen Großteil der Nutzer vollkommen ausreichen. Also hauptsächlich um dieser Tablet-Wegwerf Gesellschaft mal entkommen zu können.

Man wird jetzt abwarten müssen was Google in Zukunft noch plant mit dem Android-Nachfolger Andromeda und oder der Verschmelzung mit ChromeOS.

Schrotti
2016-11-26, 00:17:34
Ich habe jeden Tag den Linux Spass und mich stört es nicht mehr.

Was mir fehlt ist ein einfaches Grafikprogramm wie Paint.
Screenshot vom Desktop, Bild einfügen, zuschneiden und als jpeg abspeichern, das wärs.

Gimp ist total überladen und Sinnlos.

Gast
2016-11-26, 00:26:42
Ich habe jeden Tag den Linux Spass und mich stört es nicht mehr.

Was mir fehlt ist ein einfaches Grafikprogramm wie Paint.
Screenshot vom Desktop, Bild einfügen, zuschneiden und als jpeg abspeichern, das wärs.

Finde diesen von dir beschrieben Windows-Weg für Screenshots grenzwertig.
So wie es in macOS umgesetzt ist, finde ich das deutlich besser. Über verschiedene Tastenkombinationen kann man verschiedene Screenshot-Möglichkeiten jederzeit auswählen, z.B. ganzer Bildschirm, ein definierter Ausschnitt oder nur ein bestimmtes Fenster etc. und Speicherung in Datei oder Zwischenablage etc. ohne irgendwelche Umwege über Snipping, Paint & Co.

Da Gnome sich in einigen Punkten durchaus an macOS orientiert (aber auch eigene Wege geht), würde mich nicht wundern, wenn dort es auch ähnlich wie in macOS gehen könnte.


Gimp ist total überladen und Sinnlos.
Krita vielleicht? Wobei dir das vermutlich immer noch zu fett ist...

Ganon
2016-11-26, 00:27:26
Ich hab jetzt nicht den überblick über sämtliche Grafiksoftware, aber was ist das Problem, dass GIMP mehr Funktionen hat? Der Ablauf den du beschreibst geht doch auch trotz mehr Funktionen genau so in Gimp?

registrierter Gast
2016-11-26, 00:36:30
Ich habe jeden Tag den Linux Spass und mich stört es nicht mehr.

Was mir fehlt ist ein einfaches Grafikprogramm wie Paint.
Screenshot vom Desktop, Bild einfügen, zuschneiden und als jpeg abspeichern, das wärs.

Gimp ist total überladen und Sinnlos.
Pinta. Ein Paint.net Klon für Linux.
Gibt es in jedem gut geführten Repository.

Ganon
2016-11-26, 00:49:02
Wobei das letzte Release von Pinta auch schon fast 2 Jahre her ist.

aufkrawall
2016-11-26, 02:07:35
Btw: Mit Leap 42.2 funktioniert Gnome vernünftig mit dem proprietären Nvidia-Treiber, es gibt kein Tearing. Die Fenster verschieben sich zwar nicht gerade flüssig, die Inhalte laufen aber anständig. MPV lief ohne Ruckler und FF für OGL-Verhältnisse auch gar nicht so übel.
Spiele können selbst entscheiden, ob sie mit Vsync laufen oder nicht. Also alles wie gewollt.
Wirkt auch allgemein wesentlich schneller, stabiler und aufgeräumter als KDE.

iuno
2016-11-26, 02:47:30
Das beste Linux wäre eines wo der User garnicht merkt, dass er mit einem Linux arbeitet.
Wodurch genau merkst du denn, dass du unter deinem grafischen Desktop mit Linux arbeitest, mal abgesehen davon dass du zu mehr kompatibel bist und mehr Hardware ootb laeuft?

Was mir fehlt ist ein einfaches Grafikprogramm wie Paint.
Screenshot vom Desktop, Bild einfügen, zuschneiden und als jpeg abspeichern, das wärs.

Wenn es dir nur um screenshots geht, benutz doch ein Tool dafuer. Z.B. Spectacle fuer KDE (frueher KSnapshot), Shutter oder GNOME Screenshot. Da kannst du auch direkt auswaehlen wovon du ein Bild machen willst und musst nicht hinterher zuschneiden. Warum machst du das auch unter Windows mit Paint und nicht mit dem Snipping Tool?

Seit wann und von wem?

Selbst wenn das stimmen würde, was ist dann Debian?
Ja, was ist mit Debian? Ist zunaechst auch mal eine Linux Distri. Sicher, inzwischen gibt es auch Images mit freeBSD Kernel. Trotzdem kannst du nicht ein paar Softwarekomponenten die Debian halt zufaellig auch benutzt irgendwo ausfuehren und dann behaupten das sei jetzt Debian.
Nenne es halt ein OS, wenn dir das besser gefaellt, auch dazu gehoert aber ein Kernel. Und deshalb heisst es auch "Ubuntu userspace for Windows" und nicht "Ubuntu/NT", "Windows Ubuntu" oder sonst wie.
Und zu der wer-Frage: https://www.ubuntu.com/about/about-ubuntu
Da steht so einiges ueber Linux, freie Software und Ubuntu als OS

@aufkrawall: danke fuer den Bericht bzgl mpv. Ich habe mich selbst schon laenger nicht mehr dahingehend auseinandergesetzt aber das Fazit ist doch nett zu hoeren bei jemandem wie dir ;p

BBig
2016-11-26, 11:02:11
Ich habe jeden Tag den Linux Spass und mich stört es nicht mehr.

Was mir fehlt ist ein einfaches Grafikprogramm wie Paint.
Screenshot vom Desktop, Bild einfügen, zuschneiden und als jpeg abspeichern, das wärs.

Gimp ist total überladen und Sinnlos.

- Wie schon erwähnt:
Pinta: Painting Made Simple (https://pinta-project.com/pintaproject/pinta/)

- Oder noch simpler mit der Möglichkeit einen Screenshot zu machen und zu "Highlighten" (s. iuno):
Shutter - Feature-rich Screenshot Tool (http://shutter-project.org/)

- Magst du mehr "Animation", dann mach nen *.gif draus:
Peek - an animated GIF recorder (https://github.com/phw/peek)

lumines
2016-11-26, 14:16:39
Ja, was ist mit Debian? Ist zunaechst auch mal eine Linux Distri.

Das Debian-Projekt sagt von sich etwas anderes: https://www.debian.org/intro/about

Und zu der wer-Frage: https://www.ubuntu.com/about/about-ubuntu
Da steht so einiges ueber Linux, freie Software und Ubuntu als OS

So definiert sich vielleicht Ubuntu. Du kannst aber nicht einfach behaupten, dass das auch für andere Distributionen gilt. Zumal ich mal stark davon ausgehen würde, dass der Text entstanden ist, als Ubuntu unter Windows noch kein Thema und Ubuntu für Smartphones (wohlgemerkt mit Androids Kernel, der nicht in alle Ewigkeit auf Linux basieren muss) noch nicht einmal geplant war.

Versteh mich nicht falsch. Ich mag Linux als Kernel. Ich mag es nur nicht, wenn man Technik fetischisiert und durch eine zu starke Vereinfachung normale Nutzer in die Irre führt. Normale Nutzer interessieren sich nicht für den Kernel und sie sollten es auch nicht müssen. Für die meisten Nutzer ist das Userland entscheidend. Android hat ein eigenes Userland und das, was die meisten Distributionen mitbringen, läuft nicht nur mit Linux als Kernel, sondern auch unter Hurd oder den BSDs. Alleine das macht die ganze Sache rund um „Android ist auch nur Linux“ so total absurd.

Matrix316
2016-11-26, 14:28:09
Wodurch genau merkst du denn, dass du unter deinem grafischen Desktop mit Linux arbeitest, mal abgesehen davon dass du zu mehr kompatibel bist und mehr Hardware ootb laeuft?

[...]

Unter Linux muss man irgendwie zwangsläufig immer auf die Konsole zugreifen für Dinge die man unter Windows immer über grafische Oberflächen machen kann. Auf meinem Android Handy hab ich auch noch nie ein Terminal verwenden müssen.

lumines
2016-11-26, 15:43:06
Auf meinem Android Handy hab ich auch noch nie ein Terminal verwenden müssen.

Ich auch nicht, aber manchmal benutze ich trotzdem ein Terminal unter Android. Manchmal sogar unter Windows.

BBig
2016-11-26, 16:03:38
Ich finde die Diskussion eigenartig, weil ich von euch glaube, dass ihr wisst, was Linux und auch was eine Distro ist. Redet ihr aneinander vorbei oder kapiere ich das nicht?

Linux : monolithischer Kernel mit hardwarenaher Software für Scheduling, Multitasking, Gerätetreiber, Speicherverwaltung

So ist Android genauso "viel" wie auch "wenig" Linux, wie Debian, denn ohne GNU-Ultilities geht mal gar nix:
Shell, Coreutils, Compiler wie GCC, Bibliotheken wie glibc und Umsetzung sämtlicher Funktionen des POSIX System Application Program Interface (s. hier (https://de.wikipedia.org/wiki/GNU/Linux-Namensstreit))
Dann kommt noch der ganze riesige Batzen an Userland hinzu und man hat Android, Debian / eine Distri.

lumines
2016-11-26, 16:18:56
Ich finde die Diskussion eigenartig, weil ich von euch glaube, dass ihr wisst, was Linux und auch was eine Distro ist. Redet ihr aneinander vorbei oder kapiere ich das nicht?

Radeonator meint, dass Distributionen freier Software mehr Anklang finden würden, wenn man die Nähe von Android (welches ja ziemlich erfolgreich ist) zu den Distributionen anhand des Kernels hervorheben würde. Die existiert für die meisten normalen Nutzer und Konsumenten aber nicht, weil Android und die meisten Distributionen nicht das gleiche Userland haben. Zusätzlich bieten Distributionen wie Debian nicht ausschließlich Linux als Kernel an, daher ist das technisch auch gar nicht richtig. Distributionen wie Ubuntu benutzen vielleicht überwiegend Linux als Kernel, aber das gilt nicht pauschal für alle Distributionen.

Ganon
2016-11-26, 18:19:10
Unter Linux muss man irgendwie zwangsläufig immer auf die Konsole zugreifen für Dinge die man unter Windows immer über grafische Oberflächen machen kann. Auf meinem Android Handy hab ich auch noch nie ein Terminal verwenden müssen.

Naja, du vergleichst hier aber auch ein relativ offenes und vielfältig einsetzbares OS mit einer von oben bis unten zugenagelten Dose. Bei einer vielzahl Geräte kriegst du nicht mal Updates installliert, wenn es der Hersteller nicht mehr will.

Entsprechend ist es auch alles einfacher.

Ein "sfc /scannow" benötigt auch unter Windows die Konsole ;) Aber die Diskussion GUI vs. Konsole ist halt auch relativ ausgelutscht. Ob ich einem Noob nun erzähle wo er sich durchklicken soll, oder ob ich ihm einen Text gebe den er in die Konsole reinkopiert... für mich ist letzeres einfacher.

Die Grundeinstellung ist in beiden Benutzergruppen eh eine andere. Während Linux-Nutzer im Fehlerfall ihr System eher reparieren (was dann zwangsläufig auf der Konsole geschieht), installiert ein Windows-Nutzer lieber gleich das komplette Betriebssystem neu. Eine Sache die im Linux-Bereich einfach unnötig ist. Aber ist auch nicht verwunderlich. Jede Minute die man in Windows das debuggen versucht ist eine Minute die bei einer Neuinstallation bereits investiert wäre.

Ein rumspackendes Windows hab ich persönlich auch noch nie repariert bekommen, trotz Tonnen von Anleitungen (die mich übrigens fast alle auf die Konsole schicken). Letztendlich installiert man einfach neu. Mein letztes Problem war, dass das Windows Startmenü sich nicht öffnete bzw. die Taskleiste gar nicht mehr reagierte.

aufkrawall
2016-11-26, 18:23:28
Bis Windows anfängt zumruspacken, muss i.d.R. erstmal einiges passiert sein. So was kenn ich mit Windows 10 ohne Upgrade-Installationen gar nicht mehr.
Ich hatte mir gestern offenbar Komponenten von Gnome mit Yast im Handstreich gelöscht, ohne, dass das für mich ersichtlich gewesen wäre. Unlustig.

Ganon
2016-11-26, 18:28:19
Bis Windows anfängt zumruspacken, muss i.d.R. erstmal einiges passiert sein. So was kenn ich mit Windows 10 ohne Upgrade-Installationen gar nicht mehr.

Ich starte Windows nur zum Zocken. Installiere wie jeder andere auch normal nur Updates. Das war ein Standard "Ich installiere Windows 10 und ich installiere Updates (was unter Windows 10 ja sogar die meisten Treiber installiert)". Kein Tuning, keine Plugins, nicht mal ein anderer Browser. Es war nicht mal ein Windows 7 Upgrade.

Trotzdem wollte ich eines Tages einfach mal nur wieder zocken und die Taskleiste ging nicht mehr.

Warum und wieso etwas in Windows nicht mehr geht ist halt sehr schwer herauszufinden. Und wenn die Taskleiste und Co. nicht mehr geht, darfst'e dir auch mal eben im Windows Ordner die cmd.exe suchen um dann sfc /scannow zu machen.

So Konsolen-Sachen wie "dmesg" oder "less /var/log/messages" bzw. "journalctl -b -r" gibt es in Windows einfach so nicht. Die Ereignisanzeige ist halt quasi nutzlos...

edit:
Wie gesagt. Ich hab auch in Linux mal Probleme. Aber die konnte ich bisher immer beheben.

aufkrawall
2016-11-26, 18:32:48
Die Taskleiste ist Teil der explorer.exe. Wenn die streikt, liegt das meist an schrottigen Shell-Extensions, die man etwa via Autoruns gut rausschmeißen kann.

Ganon
2016-11-26, 18:34:00
Ein anderes Problem beim PC meiner Freundin. Ab und zu fährt die Kiste nicht hoch. Blackscreen beim Starten, Platte rattert aber noch. Auch nach einer halben Stunde passiert nichts. Nach 2 oder 3 versuchen geht es dann.

Ich hab dann irgendwann einfach Holzhammer (auf der Konsole wohlgemerkt) das EFI zurückgesetzt, Bootloader neu installiert und den kompletten Grafiktreiber entfernt und neu installiert (Nvidia)... das Problem ist wohl jetzt erst mal behoben, bzw. seltener.

Woran es liegt? Tjoahr, finde das mal raus...

Ganon
2016-11-26, 18:38:33
Die Taskleiste ist Teil der explorer.exe. Wenn die streikt, liegt das meist an schrottigen Shell-Extensions, die man etwa via Autoruns gut rausschmeißen kann.

Neben dem dass nichts installiert war außer Windows, Steam und BattleNet streikte wohl auch ein essentieller Dienst, dessen Name mir entfallen ist, der wohl allerhand Auswirkungen hat, wenn er dann mal nicht geht. Unter anderem halt auch dass die Taskleiste dann nicht mehr geht.

Ich habe halt wirklch zig Anleitungen probiert, die sich alle damit befassen. Es ging dann hauptsächlich um irgendwelche ACL Geschichten und Neukonfiguration des Dienstes. Geholfen hat dann alles nichts.

Das einzige was man aber in Windows selbst dazu findet ist eben, dass der Dienst nicht mehr geht. So ein Konzept von Menschen lesbaren globalen Logfiles kennt Windows halt einfach nicht.

aufkrawall
2016-11-26, 18:38:47
Zu ungenaue Fehlerbeschreibung. ;)
Ich hätt einfach mal den abgesicherten Modus gestartet, dort mit Autoruns/Ereignislog geschaut und ggf. den Nvidia-Treiber deinstalliert (im Gegensatz zum AMD-Treiber nutzt der nicht den Windows Installer und lässt sich entsprechend auch im abgesicherten Modus deinstallieren).

Ganon
2016-11-26, 18:41:20
Zu ungenaue Fehlerbeschreibung. ;)
Ich hätt einfach mal den abgesicherten Modus gestartet, dort mit Autoruns/Ereignislog geschaut und ggf. den Nvidia-Treiber deinstalliert (im Gegensatz zum AMD-Treiber nutzt der nicht den Windows Installer und lässt sich entsprechend auch im abgesicherten Modus deinstallieren).

Das hab ich wie gesagt auch getan am Ende. Das ändert nichts am Problem dass unter Windows die einzige Problemlösung ist: "Alles zurücksetzen, neu installieren". Entweder global oder eben gezielte Kernelemente.

Das Ereignislog ist wie gesagt sinnlos. Da steht und stand nichts sinnvolles drin.

Ganon
2016-11-26, 18:43:32
Ach, da ist es mir wieder eingefallen. Das Netzwerk ging nämlich damals bei mir beim Totalausfall auch nicht. Die Meldung die ich im Netzwerk-Manager hatte war:

"Der Abhängigkeitsdienst oder die Abhängigkeitsgruppe konnte nicht gestartet werden"

Wie gesagt. Ich habe echt viel probiert, um das zu fixen. Endlösung: Neuinstallation.

aufkrawall
2016-11-26, 18:43:46
Da kann u.U. auch gar nichts drinstehen, wenn das OS plötzlich einfriert und danach rein gar nichts mehr passiert. Das ist schon ein Indiz dafür, dass irgendwas mächtig kaputt ist.

Ganon
2016-11-26, 18:54:25
Da kann u.U. auch gar nichts drinstehen, wenn das OS plötzlich einfriert und danach rein gar nichts mehr passiert. Das ist schon ein Indiz dafür, dass irgendwas mächtig kaputt ist.

Das irgendwas mächtig kaputt war, war mir ziemlich direkt sichtbar :D Mich hat an dem, wie schon gesagt, nur gestört dass ich nicht rausfinden konnte _was_ kaputt war.

Und "Der Abhängigkeitsdienst oder die Abhängigkeitsgruppe konnte nicht gestartet werden" hilft mir halt so gar nicht.

Wenn ich in einem Linux-Logfile lese:

"Error starting mysuperservice: Could not access file /var/pid/blabla.pid" dann hab ich einen ziemlich genauen Anhaltspunkt was gerade das Problem ist. Denn unter Linux schreiben die meisten (wenn nicht alle) Dienste ausführliche Log-Files die man im Problemfall einfach analysieren kann. Da brauche ich im Regelfall nicht mal Google um die ersten Reparaturversuche durchzuführen.

Unter Windows: "Da geht was nicht" dann war's das meist auch schon.

aufkrawall
2016-11-26, 19:00:31
In dem Dienste-Panel zeigt er dir die Abhängigkeiten an. In der Praxis ist dann aber eher irgendwas anderes zerschossen, weshalb manche Dienste nicht mehr starten.
Da brauchts dann tatsächlich meist eine Reparatur via Datenträger, aber ist denn das so schlimm? Geht nicht jeden Tag etwas von selbst an den Diensten kaputt. Genaugenommen nie, sofern man nicht selber Mist baut oder völlig verbugte Software installiert.

Ganon
2016-11-26, 19:04:20
In dem Dienste-Panel zeigt er dir die Abhängigkeiten an. In der Praxis ist dann aber eher irgendwas anderes zerschossen, weshalb manche Dienste nicht mehr starten.
Da brauchts dann tatsächlich meist eine Reparatur via Datenträger, aber ist denn das so schlimm? Geht nicht jeden Tag etwas von selbst an den Diensten kaputt. Genaugenommen nie, sofern man nicht selber Mist baut oder völlig verbugte Software installiert.

Ich persönlich finde sowas schon eher unschön. Wenn dir das System ohne dein Zutun einfach so auseinanderfällt (wie gesagt, Plain Windows + Steam + BattleNet)... und wenn es das tut mir dann nicht mal sagen kann warum.

Und es ist mir passiert und auf dem PC meiner Freundin halt ein anderes Problem was eben nur durch Neuinstallation (hier nur der Graka-Treiber+Bootloader)...

Ich persönlich bin an den Ursachen schon interessiert. Kann ja auch ein Hardwarefehler sein. Aber wenn mir das Windows nicht sagen kann...

aufkrawall
2016-11-26, 19:09:31
Das Hauptproblem dürfte seit einiger Zeit die zweifelhafte Qualitätskontrolle für die Updates sein. Weil das riesige kumulative Brocken sind, glaub ich nicht, dass man da einfach "einzelne Module" wie unter Linux fixen könnte. Windows ist halt nicht Linux, was sowohl Vor- als auch Nachteil ist.
Mir ist Windows aber noch nicht von selbst kaputt gegangen.

iuno
2016-11-27, 01:00:13
Unter Linux muss man irgendwie zwangsläufig immer auf die Konsole zugreifen für Dinge die man unter Windows immer über grafische Oberflächen machen kann. Auf meinem Android Handy hab ich auch noch nie ein Terminal verwenden müssen.
Ich habe unter Android schon das Terminal benutzt, weil es geht, nicht weil ich muesste.
Ich kenne auch Desktop Linux Nutzer, die haben noch nie ein Terminal benutzt, weil sie es nie gebraucht haben und nichtmal wissen was das ist oder macht. Und nein, ich habe da nicht staendig anzutanzen, weil irgendwas nicht geht.

Das Hauptproblem dürfte seit einiger Zeit die zweifelhafte Qualitätskontrolle für die Updates sein.[...]
Mir ist Windows aber noch nicht von selbst kaputt gegangen.
Mir schon, bekannten auch. Unter Linux ist aber natuerlich auch schon mal was kaputt gegangen. Wie Ganon aber sagt konnte man letzteres stets einfacher beheben.
Und zu obigem faellt mir nur ein, dass alle 2 Wochen im Newsticker was von wegen 'neuestes Update legt System/Funktion X lahm' kommt. Zugegeben mag das auch nur auf wenige Systeme zutreffen, vielleicht sind es Sonderfaelle oder aufgebauschte Problemchen (ich lese die News idR. nicht, weil es mich ja nicht betrifft). Aber die Meldung kommt doch recht haeufig und ich glaube nicht, dass das viel mit selektiver Wahrnehmung zu tun hat. Ja, natuerlich mag ich Windows nicht, aber ich halte eher Ausschau nach Problemen, die mich auch selbst betreffen koennten.

Aber das hat inzwischen etwas wenig mit dem Thema hier zu tun ;)
Distributionen wie Ubuntu benutzen vielleicht überwiegend Linux als Kernel, aber das gilt nicht pauschal für alle Distributionen.
Das habe ich auch nie behauptet.

So definiert sich vielleicht Ubuntu.
Hae? Hier nochmal der Verlauf:
Ubuntu ist immer noch als eine Linux-Distri definiert

Seit wann und von wem?

Dass "Android=Linux" keine Aussage ist, die man so darstellen sollte, dem habe ich ja laengst/schon eingangs so zugestimmt. Also schlage ich vor, dass wir das Thema ruhen lassen

Gast
2016-11-27, 11:29:42
Die Diskussion das ein System auf Hardware XY laufen muss oder nicht, kann man sich schenken. Den einige Hersteller wissen selbst nicht, was sie herstellen und was läuft.

Ich muss vor ein paar Tagen eine schlechte Erfahrung mit einen Acer Laptop machen, der eine INTEL CPU und eine AMD Grafikkarte hatte.

Dieses Zusammenspiel, das Gerät gerade 3 Jahre alt, ist unter aller Sau mit Windows.
Nur Windows 8.1 mit den extra von Acer freigebenden Treiber Versionen funktionieren.

Andere Treiber Versionen oder eine höhere Windows Version (Win10) brachte das Gerät nicht vernünftig zu laufen.

Die Rede ist von Switch der Grafik (Intel & AMD) im 2D und 3D Bereich und das der Akku mal eben seine Laufzeit um 2Std. verkürzt, wenn etwas anderes installiert wird, als mit den Sachen wo mit es ausgeliefert wurde.

Der Nachteil jetzt, man kann auf Grund des alten von Acer selbst geschriebenen MOD Treiber für die Grafik, gewisse Programme nicht starten. Installiert man einen aktuellen AMD Treiber, den es von AMD gibt, dann endet das in einen Fehler und nicht arbeiten der Grafik. Eine neue Version von diesen MOD eigenen Acer Treiber gibt es nicht.

iuno
2016-11-27, 19:09:45
Deshalb Augen auf beim Hardwarekauf ;p Das gilt halt nicht nur fuer Linux, aber man muss es wohl selbst erlebt haben bevor man es glaubt, sonst funktioniert Windows ja immer so problemlos - es ging ja schliesslich auch noch, als es vorinstalliert war.
Das schlimmste sind wohl wirklich die Faelle wo der Notebookhersteller aus unsinnigen Gruenden "Sonderanfertigungen" macht. Kumpel hat auch ein Notebook, bei dem er mit Windows > 7 kein WLAN, Bluetooth und diese Hotkeys zum Laufen bekommen hat, also dual bootet er jetzt halt W7 mit Ubuntu (was ueberraschenderweise ueberhaupt gar keine Probleme gemacht hat).
Lenovo hatte auch kuerzlich ein Geraet in den Schlagzeilen, wo sie am SATA Controller rumgemacht haben. Inzwischen gibt es einen Fix, man kann jetzt zwischen einem BIOS fuer Linux und Windows entscheiden :facepalm:

Matrix316
2016-11-28, 11:54:14
Ich persönlich finde sowas schon eher unschön. Wenn dir das System ohne dein Zutun einfach so auseinanderfällt (wie gesagt, Plain Windows + Steam + BattleNet)... und wenn es das tut mir dann nicht mal sagen kann warum.

Und es ist mir passiert und auf dem PC meiner Freundin halt ein anderes Problem was eben nur durch Neuinstallation (hier nur der Graka-Treiber+Bootloader)...

Ich persönlich bin an den Ursachen schon interessiert. Kann ja auch ein Hardwarefehler sein. Aber wenn mir das Windows nicht sagen kann...
Ist ja nicht so, dass auch Linux durch Updates nicht mehr gehen kann. Da reicht es schon wenn man einfach nur den angebotenen Grafikkartentreiber installiert und es kann eventuell nicht mehr in die Grafische Oberfläche gebootet werden. Und einfach mal so bei Nvidia oder AMD vorbeischauen und einen anderen Treiber wählen geht auch nicht so einfach, weil DANN kann es sein, dass du in die Konsole musst um den erstmal zu kompilieren.

Klar bei Windows muss man auch manchmal in die Konsole, wenn man Troubleshooting betreibt, aber nicht unbedingt, wenn man einfach nur den Grafikkartentreiber installieren oder eine Soundkarte richtig einstellen will (Stichwort alsamixer).

Ganon
2016-11-28, 12:04:15
Ist ja nicht so, dass auch Linux durch Updates nicht mehr gehen kann. Da reicht es schon wenn man einfach nur den angebotenen Grafikkartentreiber installiert und es kann eventuell nicht mehr in die Grafische Oberfläche gebootet werden. Und einfach mal so bei Nvidia oder AMD vorbeischauen und einen anderen Treiber wählen geht auch nicht so einfach, weil DANN kann es sein, dass du in die Konsole musst um den erstmal zu kompilieren.

Das habe ich übrigens erwähnt. Die Aussage war auch nicht "Linux geht nicht kaputt", sondern "Unter Linux habe ich bessere Möglichkeiten das Problem zu erkennen und zu beheben, wenn auch auf der Konsole".

Nicht einfach immer Diskussionen nur überfliegen ;)

Siehe hier (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11221865&postcount=1537)

Ganon
2016-11-28, 12:17:05
Klar bei Windows muss man auch manchmal in die Konsole, wenn man Troubleshooting betreibt, aber nicht unbedingt, wenn man einfach nur den Grafikkartentreiber installieren oder eine Soundkarte richtig einstellen will (Stichwort alsamixer).

Es kommt halt auch immer auf die verwendete Hard- und Software an. Grafiktreiber kompilieren betrifft nur NVidia-Leute wo die Distribution das dem Nutzer überlässt (ArchLinux z.B. kompiliert immer das passende Modul für den entsprechenden Kernel mit -> "nvidia" und "nvidia-lts") und für Alsamixer gibt's auch GUI Tools. Ganz davon ab kann man z.B. auch Pulseaudio die komplette Kontrolle geben.

Matrix316
2016-11-28, 18:13:29
Es kommt halt auch immer auf die verwendete Hard- und Software an. Grafiktreiber kompilieren betrifft nur NVidia-Leute wo die Distribution das dem Nutzer überlässt (ArchLinux z.B. kompiliert immer das passende Modul für den entsprechenden Kernel mit -> "nvidia" und "nvidia-lts") und für Alsamixer gibt's auch GUI Tools. Ganz davon ab kann man z.B. auch Pulseaudio die komplette Kontrolle geben.
Die Frage ist, kann man diese Tools einfach über den Appstore installieren oder muss man in die Konsole??? =)

Ganon
2016-11-29, 10:19:58
Das hängt nun ganz von deiner Distribution ab. Der Standard im Linux-Bereich ist Fedora und das kommt mit GNOME, Wayland (Xorg als Fallback) und Pulseaudio. Das hinterlässt eigentlich nichts was du auf der Konsole machen müsstest.

Vielleicht noch die Installation des NVidia-Treibers aus den Fedora-Quellen... Aber ob du im Browser eine URL eintippst, oder in der Konsole ein Installationsbefehl... betrifft eh nur einen Teil der Nutzer. Bei Intel und AMD läuft alles Out-of-the-Box.

Und wer dann sattelfester ist, ggf. mal mutig ist seine Konsolenangst zu bekämpfen, der testet dann auch irgendwann mal ArchLinux oder ähnliches, um sich ein sauber laufendes System nach seinen eigenen Wünschen zusammenzubauen. Oder man ist halt zufrieden mit der Zusammenstellung der Anderen. Geht natürlich auch.

Vielleicht erkennt man auch so bei der allgemeinen Benutzung auch, dass die Konsole kein "notwendiges Übel" ist, sondern eine Sache die in Windows so dermaßen fehlt, dass sich sogar Microsoft die Linux-Konsole "bash" nach Windows geholt hat.

BBig
2016-11-29, 10:50:14
Ist ja nicht so, dass auch Linux durch Updates nicht mehr gehen kann. Da reicht es schon wenn man einfach nur den angebotenen Grafikkartentreiber installiert und es kann eventuell nicht mehr in die Grafische Oberfläche gebootet werden. Und einfach mal so bei Nvidia oder AMD vorbeischauen und einen anderen Treiber wählen geht auch nicht so einfach, weil DANN kann es sein, dass du in die Konsole musst um den erstmal zu kompilieren.

Klar bei Windows muss man auch manchmal in die Konsole, wenn man Troubleshooting betreibt, aber nicht unbedingt, wenn man einfach nur den Grafikkartentreiber installieren oder eine Soundkarte richtig einstellen will (Stichwort alsamixer).


Die Chance ist aber wirklich klein imo, solang du die Treiber aus der Repo der Distri installierst.
Die Chance dabei etwas "kaputt" zu machen ist genauso klein / groß, wie bei anderen Paketen.

Man ließt z.B. von "omg! my notebook is DEAD after driver install!!11" - und dann stellt sich heraus, das dieser User eine nvidia.run_datei von nvidia runtergeladen und im Netz den "sudo_Befehl" gefunden hat.
Und ja, die Schuld liegt natürlich bei Linux und nicht bei nvidia, :freak:

Gast
2016-11-29, 22:46:37
welche Linus-Distri hat aktuell denn den höchsten Marktanteil?
Wäre es nicht sinnvoll sich auf eine einzuschießen und den Marktanteil zu pushen anstatt hundert verschiedene Distris parallel zu entwickeln und sich in Nerdkriegen bekämpfen!?

lumines
2016-11-29, 23:17:16
Wäre es nicht sinnvoll sich auf eine einzuschießen und den Marktanteil zu pushen anstatt hundert verschiedene Distris parallel zu entwickeln und sich in Nerdkriegen bekämpfen!?

Das hatten wir hier jetzt schon dutzende Male. Viele Entscheidungen hängen an den Upstream-Projekten und nicht an den Distributionen, daher kann man schlecht eine Lösung über eine einzige Distribution finden.

Tipp: Auch Android konnte riesige Marktanteile bekommen, obwohl es in zig Forks zersplittert ist. Kann also keine Voraussetzung sein, um erfolgreich zu werden.

Marktanteil ist so oder so nicht alles. Keine Ahnung, warum hier immer nach Distributionen mit dem höchstens Marktanteil gefragt wird. Was hat man davon? Mich interessiert eher, welche Distribution die am besten gepflegten Pakete hat.

Wahrscheinlich wird man übrigens bald Anwendungskompatibilität zwischen den meisten Distributionen für viele Programme haben durch Flatpack und Snappy Apps. Wahrscheinlich ist das auch eher das, was dich interessiert, wenn du nach einem hohen Marktanteil fragst. Wahrscheinlich geht es dir auch nicht um den höchsten Marktanteil, sondern um eine möglichst hohe Kompatibilität.

Übrigens ist das sowieso eine seltsame Behauptung, dass es irgendwelche Nerdkriege und „hunderte“ Distributionen gibt. Nicht-GNU/Linuxer scheinen da von außen ein seltsames Bild zu haben. Die meisten Leute in der Community bangen ja eher um eine Poettering-Monokultur. Viele Leute würden wahrscheinlich sogar behaupten, dass mehr eigenstände Distributionen dem ganzen Ökosystem gut tun würden.

iuno
2016-11-29, 23:30:28
Kann ich so nicht sagen, gefuehlt Ubuntu, vielleicht aber auch Debian oder RHEL. Kommt sicher auf das Einsatzgebiet an, aber auch darauf, wie man zaehlt.

Wo gibt es "nerdkriege"? Es sind doch groesstenteils Firmen, die davon (gut) leben koennen wie eben RedHat oder Canonical. Das ist ein Geschaeft, in dem einiges umgesetzt wird, mit Nerds hat das wenig zu tun.

Der Kernel geht schon in eine Richtung, da arbeiten alle wichtigen Parteien mit, natuerlich inklusive der Hardwarehersteller.

Viel von dem, was ein modernes Linuxsystem heute ausmacht, geht ebenfalls in dieselbe Richtung und die wird durch RedHat bestimmt: Systemd, dbus Pulseaudio, NetworkManager, usw. Fast alles davon wurde relativ schnell von anderen adaptiert, ausser Canonical, die erst was eigenes bringen und es letztlich doch wegschmeissen und es dann doch auch nehmen.

Es gibt mit Qt und GTK nur zwei wirklich grosse UI Toolkits mit unterschiedlichen Philosophien. Es gibt ein paar grosse grafische Desktopumgebungen. Und dann gibt es natuerlich ganz viele kleinere Projekte, die ihre Daseinsberechtigung haben, aber idR. keinen grossen Einfluss auf andere ausueben.
Es ist ja nicht so, dass sich Distributionen in der Entwicklung gegenseitig behindern oder alles doppelt so schnell ginge, wenn es statt vieler nur eine entwickelnde Firma gaebe.

Es scheint auch so zu kommen, dass sich Snappy oder Flatpak (oder beide) etablieren, dann hat man auch keine "Probleme" mehr, Pakete auf unterschiedliche Distributionen auszurollen.

Man liest das oft, aber will man das wirklich? Wenn alles eine Firma macht, bekommt man am Ende etwas raus wie Android. Davon ab leben diese Firmen ganz gut, wie gesagt. Da hat keiner die Ambition und auch nicht die Moeglichkeiten mal 90% Marktanteil oder sowas zu erlangen.

Gast
2016-11-30, 01:15:58
Wahrscheinlich wird man übrigens bald Anwendungskompatibilität zwischen den meisten Distributionen für viele Programme haben durch Flatpack und Snappy Apps. Wahrscheinlich ist das auch eher das, was dich interessiert, wenn du nach einem hohen Marktanteil fragst. Wahrscheinlich geht es dir auch nicht um den höchsten Marktanteil, sondern um eine möglichst hohe Kompatibilität.
Korrekt.
Das mit Flatpack und Snappy Apps hört sich interessant an.
Hast Du zufällig aufbereitete Infos dazu? Ich würde mich gerne einlesen.

Übrigens ist das sowieso eine seltsame Behauptung, dass es irgendwelche Nerdkriege und „hunderte“ Distributionen gibt.
So macht es auf Außenstehende oft den Eindruck :D
Mag sein, dass dieser ggf. falsch ist, aber da kann ich auch nix für.


Es scheint auch so zu kommen, dass sich Snappy oder Flatpak (oder beide) etablieren, dann hat man auch keine "Probleme" mehr, Pakete auf unterschiedliche Distributionen auszurollen.

Kommt das für alle Distris bzw. für Linux allgemein?

bnoob
2016-11-30, 10:32:46
Auf dem Desktop Ubuntu oder Mint, je nachdem wen du fragst.

Absolute Zahlen sind da aber auch schwierig. Ein guter Kumpel von mir ist Contributor bei KDE Plasma, letztens wurde er von jemandem kontaktiert, der ein Enterprise Depolyment betreut, von dem niemand bei KDE wusste. Du kannst eben bei Leuten ohne Lizenz- oder Supportvertrag nicht sagen "1 Lizenz = 1 Installation".

Ganon
2016-11-30, 10:54:17
flatpack und Co. stehe ich eher fraglich gegenüber. Für OpenSource Anwendungen macht's keinen Sinn. Für ClosedSource Anwendungen sehe ich das Ganze eher wie mit Steam. Ich hab Probleme, genau weil die Anwendung das halbe OS mitliefert. Mit anderen Worten: Die erhoffte Problemlösung verursacht die Probleme, nicht anders herum.

Ich weiß natürlich nicht in welchem Umfang eine Flatpack-Anwendung ihre Abhängigkeiten mitliefert. Ich hab natürlich auch keine Lust 20 verschiedene Varianten von gtk oder qt auf dem Rechner zu haben, und ich dann je nach Anwendung unterschiedliche Bugs und Sicherheitslücken habe.

Gerade Ubuntu und Ableger wie Mint sind ja nicht gerade dafür bekannt schnell Sicherheitsupdates raus zu bringen, wenn überhaupt.

lumines
2016-11-30, 11:08:02
Mit anderen Worten: Die erhoffte Problemlösung verursacht die Probleme, nicht anders herum.

Aber immerhin, denn dann haben alle das bekommen, was sie wollten. :^) Auch wenn das dann eventuell doch nicht so toll ist.

Flatpack ist wohl schon etwas intelligenter und kann auch bei Bedarf Libraries mit dem darunterliegenden System teilen. Als Beispiel habe ich irgendwo einmal OpenSSL gelesen. Ob das aber so gut funktioniert, wenn die Kompatibilität zwischen den Versionen nicht gegeben ist, ist wahrscheinlich nicht so klar. Am Ende muss man dann wahrscheinlich wirklich aufpassen, dass jede einzelne Flatpack-Anwendung auch aktiv gewartet wird.

Ganon
2016-11-30, 11:55:30
Ob das aber so gut funktioniert, wenn die Kompatibilität zwischen den Versionen nicht gegeben ist, ist wahrscheinlich nicht so klar.

Das ist schon recht klar. Wenn die Library nicht ABI kompatibel ist, dann _kann_ es gar nicht gehen ;)

lumines
2016-11-30, 12:13:12
Das ist schon recht klar. Wenn die Library nicht ABI kompatibel ist, dann _kann_ es gar nicht gehen ;)

Ich dachte da auch eher an so Sachen, die eigentlich nicht kompatibel sind, aber von den Distributionen selbst zurechtgepatcht werden. Debian liefert z.B. oft einen Mischmasch von verschiedenen GNOME-Versionen aus. Da ist die Kompatibilität nach außen hin ja gar nicht so klar. Vielleicht habe ich das auch falsch verstanden, aber im besten Fall sollten diese Apps doch sogar die Libraries des Hosts benutzen können?

Schon klar, dass das nicht geht, wenn die ABI ganz klar nicht kompatibel ist.

Aber na ja, wahrscheinlich muss man davon ausgehen, dass am Ende sowieso praktisch jede Anwendung eine eigene Runtime benutzt.

Ganon
2016-11-30, 12:27:22
Debian ist jetzt gerade kein Musterbeispiel einer Distribution, in dem Fall. Debian verteilt wohl auch verschiedene Versionen von LLVM parallel, obwohl (leider) verschiedene LLVM-Versionen niemals und in gar keinem Fall gemischt werden sollten.

Dafür ist LLVM leider nicht gebaut und dann kracht es.

iuno
2016-12-01, 05:20:52
Naja, das hat imho schon so seine Daseinsberechtigung.

Container haben sich auch in kuerzester Zeit durchgesetzt. Da hast du bis auf den Kernel pro Instanz ganze Distributionen rumliegen. Und es ist fuers Deployment schon ziemlich bequem. Flatpak macht im Prinzip dasselbe, auch die technische Umsetzung mit cgroups ist aehnlich. Man kann auch libs in runtimes packen, die dann von mehreren Apps genutzt werden, aehnlich wie z.B. bei den image layers bei Docker. Was zusammen geht, bleibt dann auch zusammen und man hat nicht dieselbe lib mehrfach in derselben Ausfuehrung.
Was auch ganz nett ist, dass man untrusted Code einfach automatisch schon mal in einer Sandbox hat, ohne irgendetwas tun zu muessen.

Natuerlich ist es besser, wenn alles open source ist und schon in die repos kommt, aber so ist es halt nicht. Wir haben heute eben so Sachen wie Steam die alles vollmuellen. Besser als das ist es allemal, da finde ich es schon einen Schritt in die richtige Richtung. Und besser, als alles statisch zu bauen, ist es auch.

Ganon
2016-12-01, 09:13:58
Hast du denn eine Anleitung, wie man ein Flatpack "Paket" aufsetzt, dass komplett ohne Runtime kommt und die Host-Libraries nutzt? Ich finde nur: Schritt 1: Baue eine Runtime!

Weil so schön die ganzen Ideen immer klingen, in der Praxis kommt damit meist nur Mist raus. Auch Docker ist fern ab von seiner Grundidee im Betrieb. Dort wird im Großteil auch einfach immer wieder ein komplettes Ubuntu in unterschiedlichsten Versionen verteilt, statt wirklich nur das was die Anwendung braucht. nginx z.B. hat so gut wie keine Abhängigkeiten... warum braucht das jetzt noch mal ein komplettes Ubuntu?

Weil es wird erfahrungsgemäß nunmal nicht so kommen, dass die Apps alle feingranular ihre Abhängigkeiten aussortieren. Man wird einfach (wie bei Docker und Steam auch) einfach gleich die ganze Distribution reinballern und gut ist. Dann nutzt die eine Anwendung Ubuntu, die andere nimmt Debian, die andere Fedora... tadaaaaa, du hast statt einer Distribution gleich 4 auf deinem Rechner. Klar, in der Idealvorstellung wird das nicht nötig sein... aber wie du schon sagst... was ist schon ideal.

Verzeihe mir mein Pessimismus, aber ich habe schon viel kommen und gehen sehen. Und nur weil Docker gerade der voll hippe scheiß ist, hab ich gerade nicht das Bedürfnis _alle_ Anwendungen zu dockern. ;)

iuno
2016-12-01, 12:40:40
Vielleicht weil die Leute kaum nginx alleine deployen? Ansonsten kannst du das (offizielle) nginx image mit alpine Basis und einer Größe von 4mb nehmen.
Dass es missbraucht oder anders eingesetzt wird als gedacht macht das Konzept ja nicht per se schlecht. Ich wäre da noch nicht so pessimistisch. Wenn jede APP statt 10 halt plötzlich 500 MB wiegt benutzt das doch auch keiner auf dem desktop/notebook. Man wird also denke ich schon danach schauen

lumines
2016-12-01, 12:43:47
Wenn jede APP statt 10 halt plötzlich 500 MB wiegt benutzt das doch auch keiner auf dem desktop/notebook.

Die Leute haben bei Electron-Apps scheinbar kein Problem damit. Auch nicht beim RAM.

iuno
2016-12-01, 12:50:27
Ist das so? Ich habe das zugegebenermaßen im Alltag noch nicht erlebt.

aufkrawall
2016-12-03, 02:20:14
Sollte man für Ubuntu noch Repositories für Gnome oder andere Komponenten hinzufügen, um zeitnah alle getesteten Sicherheitsupdates zu erhalten?

Btw. bereiten die neusten Versionen von Ubuntu, Debian sowie TumbleWeed mir allesamt Probleme mit dem Mauscursor. Ubuntu LTS und Leap 42.2 nicht.

lumines
2016-12-03, 02:33:32
Sollte man für Ubuntu noch Repositories für Gnome oder andere Komponenten hinzufügen, um zeitnah alle getesteten Sicherheitsupdates zu erhalten?

Das kommt auf die Pakete an. Pakete im Main-Repo werden von Canonical supportet. Die in Universe werden von der Community gepflegt.

Das ist leider auch mein größtes Problem mit Ubuntu. Die Repos sind zwar groß, aber viele Pakete werden einfach nur aus Debian Sid oder Testing importiert und vergammeln dann. Nicht alle, natürlich. Aber doch sehr viele.

Da GNOME aber eine offiziell anerkannte Version ist und auch LTS-Releases rausbringt, sollte man schon davon ausgehen, dass die Maintainer das pflegen.

Andererseits gibt es natürlich bessere Distributionen, wenn man immer ein aktuelles GNOME will. Fedora liegt da ziemlich nahe, weil GNOME sehr stark mit Red Hat verbundelt ist. Der Support für proprietäre Treiber ist in Fedora allerdings eher nicht so gut. Ich meine mich erinnern zu können, dass die Xorg-Versionen von Fedora teilweise so aktuell waren, dass die proprietären Treiber von Nvidia noch nicht mit denen kompatibel waren. Für AMD-Nutzer mit den freien Treibern natürlich kein Problem und sogar eher wünschenswert, weil man so immer an die aktuellsten Treiber kommt.

Arch Linux ist auch immer sehr flott mit Paketen aus Upstream und vielleicht gerade bei proprietären Treibern nicht die schlechteste Wahl, weil die Community bei so etwas sehr hinterher ist. Es ist natürlich Rolling Release und man sollte wissen, wie man Dinge fixt, aber dann ist es eine wirklich sehr angenehme Sache. Arch basiert grundsätzlich darauf, dass es dem Nutzer keine Entscheidungen abnimmt. Dadurch ist die Distribution an sich sehr „schlank“ vom Organisationsaufwand her und die Ressourcen werden dafür an anderer Stelle frei. Man merkt Arch an, dass es davon sehr profitiert. Das Wiki ist auch distributionsübergreifend sehr hilfreich. Ich habe da sogar schon hin und wieder reingeschaut, als ich manche Dienste auf meinem MacBook unter macOS konfiguriert habe. Kann ich daher nur empfehlen.

Wenn man aber will, dass es einfach läuft, sollte man Arch vermutlich meiden.

Ganon
2016-12-03, 11:51:09
Wer Angst vor einer Konsole hat, sollte Arch vermutlich nicht nehmen, ja :D Und es ist auch allgemein nichts für Anfänger. Gentoo ist noch mal eine Stufe schärfer.

The_Invisible
2016-12-03, 13:34:11
Sollte man für Ubuntu noch Repositories für Gnome oder andere Komponenten hinzufügen, um zeitnah alle getesteten Sicherheitsupdates zu erhalten?

Btw. bereiten die neusten Versionen von Ubuntu, Debian sowie TumbleWeed mir allesamt Probleme mit dem Mauscursor. Ubuntu LTS und Leap 42.2 nicht.

Ubuntu Drivers PPA ist bei einer nvidia eigentlich Pflicht, der 375er ist schon drinnen: https://launchpad.net/~graphics-drivers/+archive/ubuntu/ppa

Dazu immer die LTS-Enablement Stacks installieren: https://wiki.ubuntu.com/Kernel/LTSEnablementStack

Mehr habe ich nicht drinnen, außer spezielle PPAs für meine spezielle Software. Sonst halt immer schauen das man Software installiert die von Ubuntu supported wird. Der Befehl "ubuntu-support-status" ist dein Freund.

aufkrawall
2016-12-03, 21:55:25
Ubuntu Drivers PPA ist bei einer nvidia eigentlich Pflicht, der 375er ist schon drinnen: https://launchpad.net/~graphics-drivers/+archive/ubuntu/ppa

Danke, kenn ich schon. Ist wirklich sehr komfortabel und gut gepflegt.
Sehr schön ist, dass man einfach zwischen den Versionen wechseln kann. Macht momentan zum Beispiel wegen einer f@h Treiber-Regression Sinn (seit 372. oder 375.).
Ist auch im Nvidia-Treiber unter Windows kaputt, so kann man fürs Folding gut Ubuntu als Zweit-OS nutzen.

Btw: Für FAHControl muss man noch händisch das python-support Paket installieren:
https://launchpad.net/ubuntu/utopic/amd64/python-support/1.0.15


Dazu immer die LTS-Enablement Stacks installieren: https://wiki.ubuntu.com/Kernel/LTSEnablementStack

Kannst du mir bitte die Quintessenz aus dem Wulst an Text für LTS 16.4.1 rausfiltern? :redface:


Der Befehl "ubuntu-support-status" ist dein Freund.
Thx.

Kann man eigentlich in Zukunft damit rechnen, dass Browser Hardware-Decoding für Video unterstützen werden? Mit dem Trend zu Streaming und komplexen Videos seh ich da langsam schwarz.

lumines
2016-12-04, 13:07:49
Kannst du mir bitte die Quintessenz aus dem Wulst an Text für LTS 16.4.1 rausfiltern? :redface:

Ab 16.04.2 sollte man den Kernel und den X-Stack aus den nachfolgenden Ubuntu-Versionen zurückportiert auf 16.04 bekommen, wenn man das aktiviert hat. So kann man trotzdem auf dem LTS-Zweig bleiben, profitiert aber trotzdem von neueren Kernel-Versionen und Co..

Kann man eigentlich in Zukunft damit rechnen, dass Browser Hardware-Decoding für Video unterstützen werden? Mit dem Trend zu Streaming und komplexen Videos seh ich da langsam schwarz.

https://bugzilla.mozilla.org/show_bug.cgi?id=563206#c51

Bei Chromium tendiert mal wohl im Zweifelsfall eher zu Software-Decoding.

aufkrawall
2016-12-04, 15:12:22
Ab 16.04.2 sollte man den Kernel und den X-Stack aus den nachfolgenden Ubuntu-Versionen zurückportiert auf 16.04 bekommen, wenn man das aktiviert hat. So kann man trotzdem auf dem LTS-Zweig bleiben, profitiert aber trotzdem von neueren Kernel-Versionen und Co...
Thx, also erstmal kein Handlungsbedarf.


https://bugzilla.mozilla.org/show_bug.cgi?id=563206#c51

Hoffentlich klappt das. Wird man dann für jeden Hersteller extra Unterstützung für seine API einbauen?


Bei Chromium tendiert mal wohl im Zweifelsfall eher zu Software-Decoding.
Das geht nicht mehr, VP9/HEVC 10 Bit 50fps fressen massiv CPU-Leistung. AV1 wird natürlich noch komplexer.

lumines
2016-12-04, 15:33:32
Das geht nicht mehr, VP9/HEVC 10 Bit 50fps fressen massiv CPU-Leistung. AV1 wird natürlich noch komplexer.

Das Web wird aber nicht geschlossen auf 10 Bit 4k mit 50 fps als Mindesanforderung für Videos upgraden. Ein großer Teil des Webs hängt irgendwo auf 360p oder 480p mit H.264 oder VP9 und das wird sich auch eine sehr lange Zeit nicht ändern. Wenn ein neueres, effizienteres Format kommt, dann wird das erst einmal benutzt, um Bandbreite bei gleicher Auflösung zu sparen und nicht primär um höhere Qualitätsstufen zu ermöglichen. Wenn man in Software dekodiert, kann man solche Formate in der breiten Masse pushen und nicht nur für solche Geräte, die das in Hardware dekodieren können.

Nicht falsch verstehen, Dekodierung in Hardware ist wichtig für die Qualitätsstufen, die du da nennst. Das ist in 95% der Fälle aber nicht relevant. Du siehst das aus deinen sehr spezifischen Anforderungen so. Das Web an sich ist aber mehr als eine Content-Maschine für High-End-Hardware.

Solche Entscheidungen wirst du übrigens nicht nur bei Videos finden. Es ist kein Zufall, dass im Web massiv ChaCha20 für TLS von Google gepusht wird, obwohl ein relativ hoher Anteil aller Desktops der letzten Jahre AES in Hardware könnte. Ist eben eine ähnliche Argumentation: Man will lieber eine annehmbare Performance für alle Geräte als eine hohe Performance nur für einen kleinen Teil*.

VP9 wird z.B. bevorzugt benutzt, weil es den besseren Kompromiss aus Dateigröße bei gleicher Qualität und CPU-Last bei Software-Dekodierung ermöglicht: https://blogs.gnome.org/rbultje/2015/09/28/vp9-encodingdecoding-performance-vs-hevch-264/

Klar, für den Einzelnen ist das nicht relevant, aber für das Web als Ganzes sind andere Dinge wichtiger als Hardware-Beschleunigung für Formate, die nur auf sehr aktueller oder teurer Hardware laufen. Jedenfalls auf Desktops bezogen, Smartphones sind wieder ein anderes Thema.


ChaCha20 ist in Software deutlich schneller als AES-128 oder gar AES-256, aber dafür zieht AES davon, wenn Hardwarebeschleunigung verfügbar ist.

iuno
2016-12-04, 15:34:28
Hoffentlich klappt das. Wird man dann für jeden Hersteller extra Unterstützung für seine API einbauen?
Es gibt quasi nur 2 wichtige APIs, VA-API und VDPAU. Beide werden letztendlich von Intel, AMD und Nvidia unterstuetzt.

Genauer gesagt unterstuetzt Nvidia nur vdpau und Intel nur vaapi, aber es gibt jeweils ein Backend fuer die andere API. Sollte also theoretisch kein Problem sein ;p

Ganon
2016-12-04, 15:52:41
Soweit ich weiß, ist das Problem ist auch weniger die API, sondern die Ausgabe der API in das Browserfenster zu kriegen, was halt momentan nicht implementiert ist.

Gucke aber auch, sofern es längere Sessions sind, Twitch und YouTube über mpv.

lumines
2016-12-04, 15:56:16
Soweit ich weiß, ist das Problem ist auch weniger die API, sondern die Ausgabe der API in das Browserfenster zu kriegen, was halt momentan nicht implementiert ist.

Das wird in meinem verlinkten Thread zu Bugzilla auch angesprochen.

aufkrawall
2016-12-04, 17:24:13
VP9 wird z.B. bevorzugt benutzt, weil es den besseren Kompromiss aus Dateigröße bei gleicher Qualität und CPU-Last bei Software-Dekodierung ermöglicht: https://blogs.gnome.org/rbultje/2015/09/28/vp9-encodingdecoding-performance-vs-hevch-264/

Nope, VP9 auf YT hat eine wesentlich bessere Qualität als das eingesetzte H.264. Es wird also nicht nur Bandbreite gespart, sondern auch die Qualität erhöht. Dabei steigt natürlich die CPU-Last.

BBig
2016-12-04, 20:26:50
...
Gucke aber auch, sofern es längere Sessions sind, Twitch und YouTube über mpv.

Ich nehme mittlerweile auch mpv.

Früher habe ich https://github.com/chrippa/livestreamer benutzt, aber livestreamer hatte schon länger kein Update mehr ( - gibt token-probleme u.a. unter twitch - )
==> Nun gibt es einen Fork, der schon ein paar Releases hatte: https://github.com/streamlink/streamlink

Ganon
2016-12-04, 20:53:37
Ja mpv kann halt im Hintergrund direkt youtube-dl ansprechen. Das kann auch Twitch. Also sofern youtube-dl installiert ist, kann man auch einfach "mpv https://www.twitch.tv/<kanal>" machen.

Aber streamlink ist natürlich kompatibel zu deutlich mehr Playern (z.B. Kodi, omxplayer etc). Ist also nicht ganz sinnlos :)

aufkrawall
2016-12-04, 21:08:38
YT-Livestream mag er leider nicht, bleibt ständig wegen leeren Buffers stehen.
Ideen? sonst melde ich es mal im Github-Tracker.

Twitch und normales YT gehen aber. Nimmt auch automatisch beste Qualität und Codecs, gut so. Geht übrigens unter Windows genau so komfortabel via Ausführen. ;)

Ganon
2016-12-04, 21:11:41
Ich glaube das Problem mit YouTube Livestreams steht schon irgendwo. Soweit ich mich erinnere ist das ein ffmpeg Bug. Also vorher mal suchen, bevor du einen neuen Issue auf machst ;)

Ganon
2016-12-04, 21:15:29
Gerade mal mit 2 YouTube Live Streams getestet -> geht bei mir. Scheinbar also schon gefixt in der aktuellsten Version jeder Software. Aber ich kann mich erinnern das Problem schon gehabt zu haben. Schaue nur so selten YTLive

aufkrawall
2016-12-04, 21:16:55
War die Auflösung denn 1080p?

Ganon
2016-12-04, 21:21:56
Jop. Aber es tauchen sehr oft Meldungen wie:

[ffmpeg] tls: The TLS connection was non-properly terminated.

in der Konsole auf. Kann auch sein, dass YT da auch einfach Müll liefert. Wie gesagt, irgendwo war da schon ein Bugreport zu. Weiß nur nicht mehr ob bei youtube-dl oder bei mpv.

aufkrawall
2016-12-04, 22:48:43
Unter Linux bekomm ich den Fehler auch. Mit Windows nicht, dafür läuft einfach der Buffer leer.

raumfahrer
2016-12-05, 00:20:09
Videos von YT laden auch ewig? IIRC hängt das mit [1] zusammen. Der Fix dafür
ist schon da [2], derzeit für 3.3 getagged. Wird aus irgendwelchen Gründen
immer wieder verschoben.

Abhilfe schafft teilweise 'mpv --ytdl-format=best', damit gibt es aber kein
DASH mehr und somit nur noch 720p.

[1] https://trac.ffmpeg.org/ticket/3842
[2] https://github.com/FFmpeg/FFmpeg/commit/4ab56667594842283dc5ae07f0daba2a2cb4d3af

Edit: Release Notes von mpv.

[3] https://github.com/mpv-player/mpv/releases/tag/v0.13.0

aufkrawall
2016-12-05, 00:46:06
Nicht-live Inhalte von YT gehen hier problemlos unter Windows und Linux, sogar 4k 60fps. Problem ist nur live.

aufkrawall
2016-12-06, 15:01:45
Kann mir hier jemand mit der Auflösungskonfiguration für X weiterhelfen?
Ich hab einen Monitor ohne Scaler, der ohne Probleme 75Hz mitmacht. Dazu muss man ihn aber mittels Custom Resolution überreden, per default läuft er nur mit 59,95Hz.
Gibt diverse Anleitungen im Netz für Monitor-OC, ich komme aber nicht weiter.

Meine X-Config sieht z.B. so aus (erhalte nur Bildsalat):
Section "ServerLayout"
Identifier "Layout0"
Screen 0 "Screen0" 0 0
InputDevice "Keyboard0" "CoreKeyboard"
InputDevice "Mouse0" "CorePointer"
Option "Xinerama" "0"
EndSection

Section "Files"
EndSection

Section "InputDevice"
# generated from default
Identifier "Mouse0"
Driver "mouse"
Option "Protocol" "auto"
Option "Device" "/dev/psaux"
Option "Emulate3Buttons" "no"
Option "ZAxisMapping" "4 5"
EndSection

Section "InputDevice"
# generated from default
Identifier "Keyboard0"
Driver "kbd"
EndSection

Section "Monitor"
Identifier "Monitor0"
VendorName "QNIX"
ModelName "QX2710"
Modeline "2560x1440" 312.25 2560 2752 3024 3488 1440 1443 1448 1493 -hsync +vsync
Modeline "2560x1440_60" 312.25 2560 2752 3024 3488 1440 1443 1448 1493 -hsync +vsync
Option "DPMS"
EndSection

Section "Device"
Identifier "Device0"
Driver "nvidia"
VendorName "NVIDIA Corporation"
BoardName "GeForce GTX 1070"
EndSection

Section "Screen"
Identifier "Screen0"
Device "Device0"
Monitor "Monitor0"
DefaultDepth 24
SubSection "Display"
Depth 24
Modes "2560x1440_60"
EndSubSection
Option "NoBandWidthTest" "true"
Option "IgnoreEDIDChecksum" "DFP"
Option "UseEDID" "False"
Option "UseEDIDDPI" "False"
Option "UseEDIDFreqs" "False"
Option "ExactModeTimingsDVI" "True"
Option "ModeValidation" "NoVertRefreshCheck, NoHorizSyncCheck, NoDFPNativeResolutionCheck, NoMaxSizeCheck, NoMaxPClkCheck, NoEDIDModes"
Option "metamodes" "DFP-0: 2560x1440_60 +0 +0"
EndSection

Also kein Erfolg, obwohl auch nur 60Hz eingestellt.
Bei diesen ganzen Anleitungen im Netz steht leider offenbar nicht erklärt, was es mit den einzelnen Zeilen auf sich hat.
Erstes großes Fragezeichen ist die Modeline, in der die Auflösung steht, dahinter aber keine Refreshrate. Wofür braucht man diese Zeile?
Zweites großes Rätsel sind die Werte dahinter, die offenbar u.a. die Timigns beinhalten. Dummerweise in einem Format, das ich nicht erkenne. Ich brauche einfach nur LCD Standard-Timings. Ziel soll sein, dass 1440p 75Hz der einzige angebotene Modus ist (geht unter Windows problemlos mittels CRU).
Ideen? :redface:

Ganon
2016-12-06, 15:06:55
(mal fix Google benutzt, da keine Ahnung davon)

http://arachnoid.com/modelines/

Hier kann man z.B. "Computation Details" anklicken und dann wird einem gezeigt was das alles für Werte sind.

iuno
2016-12-06, 15:21:38
Du kannst statt die EDID auslesen zu lassen auch eine bestimmte erzwingen. Ich habe das mal gemacht mit einem TV. Vielleicht hilft dir das als Stichwort, ansonsten kann ich später näher darauf eingehen (bin unterwegs).

aufkrawall
2016-12-06, 16:42:02
Ich glaub, es sind hauptsächlich die Timings Käse. Der Pixelclock ist mit CRU viel niedriger:
https://abload.de/thumb/timingsh5s26.png (http://abload.de/image.php?img=timingsh5s26.png)

Dummerweise funkioniert cvt -r nicht mit Refreshraten >60Hz.
Edit: Bzw. nur mit Vielfachen.

iuno
2016-12-06, 18:38:42
Bei mir schon:
> cvt 2560 1440 60
# 2560x1440 59.96 Hz (CVT 3.69M9) hsync: 89.52 kHz; pclk: 312.25 MHz
Modeline "2560x1440_60.00" 312.25 2560 2752 3024 3488 1440 1443 1448 1493 -hsync +vsync
> cvt 2560 1440 75
# 2560x1440 74.94 Hz (CVT 3.69M9) hsync: 112.86 kHz; pclk: 397.25 MHz
Modeline "2560x1440_75.00" 397.25 2560 2760 3040 3520 1440 1443 1448 1506 -hsync +vsync

Gibt allerdings was anderes raus als die Seite von Ganon, die macht GTF Modelines:
> gtf 2560 1440 75

# 2560x1440 @ 75.00 Hz (GTF) hsync: 112.73 kHz; pclk: 396.79 MHz
Modeline "2560x1440_75.00" 396.79 2560 2760 3040 3520 1440 1441 1444 1503 -HSync +Vsync
Ich weiss aber ehrlich gesagt den Unterschied gerade auch nicht.

Mit xrandr --newmode kannst du uebrigens eine Modeline direkt ausprobieren, bevor du sie fest in die x Config eintraegst.

aufkrawall
2016-12-06, 19:35:19
Du meinst dann mit --addmode?
Leider führt das bei mir immer zu dem Ergebnis:
sudo xrandr --addmode DVI-D-0 2560x1440_75.00
X Error of failed request: BadMatch (invalid parameter attributes)
Major opcode of failed request: 140 (RANDR)
Minor opcode of failed request: 18 (RRAddOutputMode)
Serial number of failed request: 43
Current serial number in output stream: 44

iuno
2016-12-06, 22:24:02
Das hinzufuegen der Modeline mit newmode hat geklappt?
Also z.B.
xrandr --newmode "2560x1440_75.00" 396.79 2560 2760 3040 3520 1440 1441 1444 1503 -HSync +Vsync

Muss man xrandr mit sudo ausfuehren mit Nvidia? Da bin ich mir auch gerade unsicher.

aufkrawall
2016-12-07, 02:40:19
Habe eine Lösung gefunden:
Wie hier beschrieben (https://www.monitortests.com/forum/Thread-Guide-to-Nvidia-monitor-overclocking-on-Linux) die Werte von cvt als Mode zur xorg.config hinzugefügt.
Damit tauchen die 75Hz im Nvidia Control-Panel auf. Allerdings liegen nach den Anmelden immer nur 60Hz an und ich müsste immer händisch auf 75Hz schalten. Wenn ich die Range der vertikalen Refreshrate auf Minimum 75Hz festlege, habe ich auf der Anmeldemaske Bildsalat.
Workaround: xrandr --output DVI-D-0 --mode 2560x1440 --rate 75
als Autorun-Befehl ausführen.

Bei Maus-Settings zickt X ähnlich rum. Auch hier kann man wieder den entsprechenden Befehl per Autorun ausführen lassen: xset m 0/1 4
Schaltet die Mausbeschleunigung ab.

So, nächstes Problem: MPV dropt teilweise massig Frames bei 4k VP9, obwohl CPU und GPU bei 30fps nicht zu stark belastet sind. H.264 4k 30fps per VDPAU-copy geht seltsamerweise.

iuno
2016-12-07, 13:29:29
Was fuer eine DE benutzt du nochmal?
Kann sein, dass dort auch etwas hinterlegt ist, was dir die Refreshrate zurueckstellt. Mausbeschleunigung kann man evtl. ebenso in den gui settings festlegen, sollte dann bei der Anmeldung normalerweise wiederhergestellt werden. Bei den Einstellungen, die du im Nvidia Panel vornimmst, wuerde ich dasselbe erwarten.
Naja, bald wird X eh abgeloest ;p

Ich glaube nicht, dass vdpau schon vp9 support hat. Output von vdpauinfo sollte Aufschluss geben.

aufkrawall
2016-12-07, 13:41:19
Ubuntu 16.4.1 LTS mit Unity. Mausbeschleunigung kann man da definitiv nicht einfach per UI wie bei KDE abstellen. Das Nvidia Control Panel unter Linux speichert keine Monitor-Einstellungen. Es gibt einen Schalter, die Settings in die xorg.config zu schreiben. Da schreibt er aber nur die Standarndeinstellungen rein, nichts was man im UI anders eingestellt hätte. Sehr dämlich gelöst.

Mein Traum wär ja eine OpenSuse-Version, bei der KDE Plasma ootb Wayland mit proprietärem Nvidia-Treiber nutzt. :redface:

VP9 4k 30fps VP9 müssen auf dem 2500k OC ohne Framedrops abgespielt werden, unter Windows geht das ja.

Btw: Scheint so, als würd der Unity-Compositor trotz 75Hz weiterhin nur mit 60fps rendern. Der Inhalt von Fenstern ruckelt mit 75Hz. Mit 60Hz läuft Counter-Strike 1.6 im windowed Modus mit eingeschaltetem Vsync absolut flüssig. Mit 75Hz werden dabei eindeutig Frames gedropt. Im Vollbildmodus laufen die 75Hz dann wieder komplett flüssig.
Mal dumm gefragt: Kann X11 überhaupt Fenster mit mehr als 60fps rendern? :freak:

Ganon
2016-12-07, 13:57:16
Unity: Keine Ahnung. Canonical Kram
KDE: KDE will völlig bewusst keinen Compositor-Bypass implementieren, Compositor also abschalten

Die nächste GNOME-Version wird übrigens den NVidia-Wayland Kram implementieren. KDE wird dies bisher nicht tun.

Ganon
2016-12-07, 14:06:34
Ich glaube nicht, dass vdpau schon vp9 support hat. Output von vdpauinfo sollte Aufschluss geben.

Scheint nicht so:


$ vdpauinfo
display: :1 screen: 0
API version: 1
Information string: NVIDIA VDPAU Driver Shared Library 375.20 Tue Nov 15 16:42:40 PST 2016

Video surface:

name width height types
-------------------------------------------
420 8192 8192 NV12 YV12
422 8192 8192 UYVY YUYV

Decoder capabilities:

name level macbs width height
----------------------------------------------------
MPEG1 0 65536 4096 4096
MPEG2_SIMPLE 3 65536 4096 4096
MPEG2_MAIN 3 65536 4096 4096
H264_BASELINE 41 65536 4096 4096
H264_MAIN 41 65536 4096 4096
H264_HIGH 41 65536 4096 4096
VC1_SIMPLE 1 8190 2048 2048
VC1_MAIN 2 8190 2048 2048
VC1_ADVANCED 4 8190 2048 2048
MPEG4_PART2_SP 3 8192 2048 2048
MPEG4_PART2_ASP 5 8192 2048 2048
DIVX4_QMOBILE 0 8192 2048 2048
DIVX4_MOBILE 0 8192 2048 2048
DIVX4_HOME_THEATER 0 8192 2048 2048
DIVX4_HD_1080P 0 8192 2048 2048
DIVX5_QMOBILE 0 8192 2048 2048
DIVX5_MOBILE 0 8192 2048 2048
DIVX5_HOME_THEATER 0 8192 2048 2048
DIVX5_HD_1080P 0 8192 2048 2048
H264_CONSTRAINED_BASELINE 41 65536 4096 4096
H264_EXTENDED 41 65536 4096 4096
H264_PROGRESSIVE_HIGH 41 65536 4096 4096
H264_CONSTRAINED_HIGH 41 65536 4096 4096
H264_HIGH_444_PREDICTIVE 41 65536 4096 4096
HEVC_MAIN 153 262144 8192 8192
HEVC_MAIN_10 --- not supported ---
HEVC_MAIN_STILL --- not supported ---
HEVC_MAIN_12 --- not supported ---
HEVC_MAIN_444 --- not supported ---

Output surface:

name width height nat types
----------------------------------------------------
B8G8R8A8 32768 32768 y Y8U8V8A8 V8U8Y8A8 A4I4 I4A4 A8I8 I8A8
R10G10B10A2 32768 32768 y Y8U8V8A8 V8U8Y8A8 A4I4 I4A4 A8I8 I8A8

Bitmap surface:

name width height
------------------------------
B8G8R8A8 32768 32768
R8G8B8A8 32768 32768
R10G10B10A2 32768 32768
B10G10R10A2 32768 32768
A8 32768 32768

Video mixer:

feature name sup
------------------------------------
DEINTERLACE_TEMPORAL y
DEINTERLACE_TEMPORAL_SPATIAL y
INVERSE_TELECINE y
NOISE_REDUCTION y
SHARPNESS y
LUMA_KEY y
HIGH QUALITY SCALING - L1 y
HIGH QUALITY SCALING - L2 -
HIGH QUALITY SCALING - L3 -
HIGH QUALITY SCALING - L4 -
HIGH QUALITY SCALING - L5 -
HIGH QUALITY SCALING - L6 -
HIGH QUALITY SCALING - L7 -
HIGH QUALITY SCALING - L8 -
HIGH QUALITY SCALING - L9 -

parameter name sup min max
-----------------------------------------------------
VIDEO_SURFACE_WIDTH y 1 8192
VIDEO_SURFACE_HEIGHT y 1 8192
CHROMA_TYPE y
LAYERS y 0 4

attribute name sup min max
-----------------------------------------------------
BACKGROUND_COLOR y
CSC_MATRIX y
NOISE_REDUCTION_LEVEL y 0.00 1.00
SHARPNESS_LEVEL y -1.00 1.00
LUMA_KEY_MIN_LUMA y
LUMA_KEY_MAX_LUMA y


Warten auf NVidia... wie immer :D

aufkrawall
2016-12-07, 14:09:37
Richtig, es gibt leider noch keinen VP9- sowie HEVC 10 Bit-Support via VDPAU. Sehr ärgerlich.

Ganon
2016-12-07, 14:32:16
Ich weiß auch nicht warum NVidia überhaupt noch an VDPAU festhält. Niemand interessiert sich mehr dafür, da VAAPI weitaus weiterentwickelt ist. Es hängt schon lange nicht mehr von X11 ab (geht überall wo ein EGL-Kontext greibar ist) und hat Encoding-Fähigkeiten.

Also so trocken gesagt: Während man bei VDPAU auf VP9 Decoding wartet, beherrscht VAAPI schon VP9 Encoding.

iuno
2016-12-07, 15:37:03
Ich dachte du magst kein KDE? ;)
Es gibt definitiv kein festes 60 FPS Limit. http://www.testufo.com/#test=framerates-text hier kann man z.B. den Unterschied deutlich sehen. Vielleicht ist das im Ubuntu Compositor der Fall, ich kann es mir aber schwer vorstellen.

Hast du eine Beispieldatei in VP9 zur Hand um das mal zu testen? Wenn moeglich ziemlich kurz, mein Internet ist lahm :usad:

Bzgl. VA-API und VP9 fehlt halt nur noch die Hardware ;p

Ganon
2016-12-07, 15:51:16
Bzgl. VA-API und VP9 fehlt halt nur noch die Hardware ;p

Ich dachte Kaby Lake unterstützt VP9?

aufkrawall
2016-12-07, 15:54:05
Schau mal auf YouTube, die meisten Videos liegen als VP9 vor.
Ich nehme ganz gerne das hier:
https://www.youtube.com/watch?v=aqz-KE-bpKQ
In der Anfangsszene nach dem Vogel schnellt die Bitrate hoch, da hab ich selbst unter Windows mit MPV bei 4k 60fps ein paar gedropte Frames.
(mit madVR übrigens nicht, weil das als offenbar einziges Programm dem Treiber oder DWM die Frames zum Vorausrendern überlässt, was stabiler in solchen knappen Situationen ist)
Mit JDownloader2 oder dieser Extension kann man die Videos komfortabel laden:
https://addons.mozilla.org/de/firefox/addon/youtube-video-and-audio-dow/?src=api

Ich installier mal OpenSuse mit Cinnamon oder Mate und schau, wie sich der Compositor dort verhält.
Mit Ubuntu lief der Desktop schon mit 60Hz mit Cinnamon flüssiger als mit Unity, aber leider war dann bei Spielen im Vollbild trotz gegenteilig gesetzter Option immer Vsync an.

Kabylake unterstützt natürlich VP9.

Ganon
2016-12-07, 16:53:22
Joahr du musst bedenken, dass bei NVidia der komplette Stack, vom Xorg Teil bis runter zum Kernel-Treiber, von NVidia selbst kommt. D.h. es ist schwer rauszufinden, was an Xorg liegt und was an NVidia selbst liegt. Dazu können auch auch deine Optionen in der xorg.conf entscheidend sein.

Open Source Intel und Open Source AMD Treiber verwenden hier (bzw. können sie verwenden) eine komplett andere Infrastruktur, welche Xorg gar nicht mehr so weit weg von Wayland entfernt wie sonst.

edit:
Und bevor wieder Gemecker kommt. Xorg steht größtenteils unter MIT-License. NVidia könnte ebenfalls den neuen Kram nutzen, wenn sie denn wollten.

iuno
2016-12-07, 16:56:58
Klar, Kaby Lake hat aber keiner von uns oder?

Bist du sicher, dass es am Decoding liegt und nicht an Filtern?

Bei mir laeuft zumindest die erste Minute ordentlich durch. CPU ist ein i7-6700k@4.0


http://i.imgur.com/dybszDZ.png
Playing: Big_Buck_Bunny_60fps_4K_-_Official_Blender_Foundation_Short_Film-aqz-KE-bpKQ.webm.part
(+) Video --vid=1 (*) (vp9)
libva info: VA-API version 0.39.4
libva info: va_getDriverName() returns 0
libva info: Trying to open /usr/lib/dri/radeonsi_drv_video.so
libva info: Found init function __vaDriverInit_0_39
libva info: va_openDriver() returns 0
[vaapi] Decoder profile 'VAProfileVP9Profile0' not available.
Using software decoding.
VO: [opengl] 3840x2160 yuv420p
V: 00:01:01 / 00:10:34 (9%) DS: 2.000/4 Cache: 0s+0KB


Exiting... (End of file)

Das ganze Video hier zu laden wuerde jetzt noch eine Stunde dauern, das lasse ich mal ;D

aufkrawall
2016-12-07, 17:14:27
Bin jetzt auf OpenSuse Leap 42.2 und habe Cinnamon nachgerüstet.
Damit laufen auch die Fenster mit 75Hz, CS 1.6 läuft so im Fenster flüssig. Allgemein läuft Cinnamon auch mit Abstand am flüssigsten. Auch funktioniert im Gegensatz zu Ubuntu die Option, für Vollbildanwendungen das Compositing zu deaktivieren, damit man ohne Vsync spielen kann.

OpenSuse hat doch einen ziemlich guten Ruf, was das Einspielen von Sicherheitsupdates angeht?

iuno
2016-12-07, 17:52:28
OK, ich habe noch das gefunden: https://ubuntuforums.org/showthread.php?t=2246962 Das ist allerdings schon 2 Jahre alt. Vielleicht sollte man da bei Canonical mal nachhaken
Warum nicht gleich Tumbleweed? ;)

aufkrawall
2016-12-07, 20:24:35
Tumbleweed hatte wie viele neue Versionen Probleme mit dem Mauscursor bei mir und ich hab keine Lust, da auch noch nachhaken zu müssen.

Leap 42.2 + Cinnamon fixt auch mein Problem mit MPV, kann nun 4k VP9 30fps per Software ohne Framedrops in hoher Qualität abspielen.
Wenn Nvidia mal VDPAU für VP9 brächte, ginge sicherlich auch 4k VP9 60fps.

Fürs Abschalten der Mausbeschleunigung muss nun auf die Lösung aus letzterem Kommentar zurückgegriffen werden:
http://askubuntu.com/questions/715093/how-do-i-disable-mouse-acceleration

Gast
2016-12-08, 17:33:43
https://kororaproject.org/about

Basiert auf Fedora.

DekWizArt
2016-12-10, 18:06:25
Äh ja und? Was soll das Posting jetzt aussagen?

aufkrawall
2016-12-11, 01:57:07
Endlich läuft das GPU-Folding auf OpenSuse:
https://abload.de/thumb/screenshot201612102150dszr.png (http://abload.de/image.php?img=screenshot201612102150dszr.png)

Stanford/Pande pflegen das für Linux echt kacke, musste lange genug suchen und rumprobieren...

aufkrawall
2016-12-11, 20:13:23
Kleines Problem:
Ich möchte eine Samba-Freigabe mit Gast-Zugang einrichten (also keine User/Passwort-Abfrage nötig). Das klappt auch sehr einfach, dummerweise habe ich als angemeldeter user keinen Schreibzugriff auf die von "nobody" erstellten Dateien. Gibts einen einfachen chmod-Befehl, der mir das ermöglicht (für das Verzeichnis, also auch für alle in Zukunft erstellten Dateien automatisch)? :redface:

BBig
2016-12-11, 23:16:08
Kleines Problem:
Ich möchte eine Samba-Freigabe mit Gast-Zugang einrichten (also keine User/Passwort-Abfrage nötig). Das klappt auch sehr einfach, dummerweise habe ich als angemeldeter user keinen Schreibzugriff auf die von "nobody" erstellten Dateien. Gibts einen einfachen chmod-Befehl, der mir das ermöglicht (für das Verzeichnis, also auch für alle in Zukunft erstellten Dateien automatisch)? :redface:

https://wiki.ubuntuusers.de/Samba_Server/#Benutzerverwaltung

aufkrawall
2016-12-12, 01:47:11
Ich sehe da leider nichts, was mich weiterkommen ließe.
Was muss ich noch machen, außer bei Samba meinen Useraccount hinzuzufügen?

Lösung gefunden: Via Dolphin Usershare eingerichtet und Berechtigungen für Eigentümer, Gruppe und Sonstige. Dann noch Vollzugriff für die ganze Gruppe users + für untergeordnete Dateien eingerichtet.

aufkrawall
2016-12-13, 19:19:44
Hab mir mal Shadow Warrior installiert. War so ziemlich das einzige Spiel/Engine, das ich aus meiner Steam-Bibliothek noch nicht ausprobiert hatte.
Im Gegensatz zu dem ganzen anderen Müll mit UE3 oder Source-Engine läuft dieses Spiel mit offenbar völlig perfekten Frametimes, sehr hohen fps (locker dreistellig in WQHD mit der 1070 Gaming X@stock) und ohne Grafikfehler. Die Grafik schien auch genau so gut wie unter Windows zu sein.

Gast
2016-12-18, 17:39:11
Vorinstalliert auf allen Laptops ausliefern,
dann wäre dieses Installierte OS binnen 5 Jahren Markführer.

Alles andere wird nicht klappen selbst wenn!! Linux unendlich viel besser wäre.

Gast
2016-12-20, 09:59:47
1. Freie Auswahl der Software (inkl. Version) durch den Nutzer (ohne selbst kompilieren zu müssen)
2. Einfache, möglichst automatische (Sicherheits-)Updates für diese ohne Friemelei
3. Mehr kommerzielle Software-Angebote
3. Besserer Treibersupport, besonders bei den GPUs

Besonders 1 und 2 werden immer versprochen, aber ich kenn keine Distributionen, die das wirklich umsetzen kann. Man ist immer auf die Software beschränkt die einem vorgegeben wird, oder der Updater funktioniert nicht. Zudem muss man bei Abweichungen sehr aufpassen und manuell nacharbeiten (Abhängigkeiten neu kompilieren), wenn der Updater mal nen größeres Update macht. Unter Windows geht beides i.d.R deutlich komfortabler, wenn auch oft nicht mit Bordmitteln.

lumines
2016-12-20, 10:19:43
Besonders 1 und 2 werden immer versprochen, aber ich kenn keine Distributionen, die das wirklich umsetzen kann.

Die meisten Distributionen versprechen eigentlich das Gegenteil von Punkt 1, nämlich dass die Software auf eine bestimmte Version festgesetzt wird und nur bei Major-Upgrades aktualisiert wird.

Punkt 2 wundert mich etwas. Ich lasse überall seit Jahren automatische Updates laufen und kann mich an kein Problem in der Zeit erinnern.

Captian Sheridan
2016-12-20, 12:57:48
Ich hatte mal GNU/Linux (Debian Sid) vor etlichen Jahren im Desktop Einsatz.

Leider kam die Dauerbaustelle KDE 4 (5 inzwischen) und Kmail ist komplett ruiniert worden.
Gnome 2 fand ich ne Katastrophe, aber Gnome 3 ist echt noch schlimmer.

Bei Grub 2 muss ich an Emacs denken, die entwickeln ein fast vollständiges OS, anstatt sich auf die Aufgaben eines Bootloader zu konzentrieren..

Es wurde immer schwieriger, die gekauften Linux Spiele
(von Loki Games) auf aktuellen Distributionen zum laufen zu bekommen.
Es ist einfacher die Windows Version mit Wine zum laufen zu bringen.

Dass der Absturz des X-Server alle graphischen Anwendungen crasht,
ist mir für mich ein Design Fail. (keine Ahnung, ob das mit Wayland besser geworden ist)

X-Server erlaubt es, Anwendungen sich Tastatur und Maus Eingaben
exclusiv zu sichern.Wenn diese Anwendung spinnt, kann man nicht mal mehr
zum Text Terminal schalten.

Alsa ist Murks, Sound Mixing war/ist ? problematisch.
Und wehe, ein Programm benutzt OSS, dann wars vorbei mit Sound Mixing.
Sollte mit PulseAudio besser geworden sein.

Snapshots mit LVM sind auch eine absolute Katastrophe vgl. zu Schattenkopien unter Windows.
Ext4 kann nicht vollständig defragmentiert werden.

Mesa und damit die Open Source Trieber unterstützen kein S3TC out-of-Box.

2009 hab ich aufgegeben und bin am Desktop zu Windows 2003, später Windows 7 zurückgekehrt.

DekWizArt
2016-12-20, 13:17:40
Also vor 7 Jahren, das ist nun allerdings schon so lange her als das es eigentlich äh was aussagen soll? ;)

Gast
2016-12-20, 18:09:56
Punkt 2 wundert mich etwas. Ich lasse überall seit Jahren automatische Updates laufen und kann mich an kein Problem in der Zeit erinnern.
Punkt 1 und 2 muss man hier gekoppelt betrachten. Mit LTS releases fehlen einem idR einzelne Pakete in ner aktuellen Version. Z.B. eclipse neon. Mit rolling Distributionen will man hin und wieder eine aktuelle Version (noch) nicht installieren. Beides ist bei Linux irgendwie nicht vorgesehen. Bei gentoo hat das noch gut geklappt, aber wenn das den Desktop erobern soll, dann gute Nacht. Ich sag es fast ungern, aber mit Windows entscheidet man das letztlich selbst und wird (diesbezgl.) nicht/wenig bevormundet.
Gleichzeitig wird oft verprochen, dass es im Gegensatz zu Windows Updates für das gesamte System gibt. Das stimmt jedoch bei keiner mir bekannten Distribution. Teilweise schon innerhalb der Repos nicht (siehe Ubuntu). Sobald man aber Punkt 1 will und das passiert im Desktopeinsatz imho automatisch (und sei es nur für eine einzige Anwendung), dann war es das komplett mit einfachen Updates. Im Vergleich ist ein .msi Installer reiner Luxus...

Für mich ist das in Kombination seit Jahrzehnten ein K.O. Kriterium, auch wenn ich es als Zweitsystem gerne immer mal wieder verwende.

Captian Sheridan
2016-12-20, 21:08:05
Also vor 7 Jahren, das ist nun allerdings schon so lange her als das es eigentlich äh was aussagen soll? ;)
Die Probleme sind übrigens immer noch vorhanden.
Die meisten sind grundlegende Probleme in der Architektur von X.org usw.
Einen Bug in X.org beobachte ich seit 2004, er ist bis heute nicht behoben worden.

Du kannst meine Punkte aber gerne wiederlegen.

aufkrawall
2016-12-20, 21:25:38
Ein bisschen künstlich wirken deine Punkte teilweise schon.
Sicher, X ist Steinzeit pur. Hoffentlich kann man das bald unabhängig von der Hardware und dem DE durch Wayland ersetzen.

Bez. ext4: Muss man doch nicht nutzen? Wofür gibts Btrfs? Kannst btw. die Snapshots davon ja mal ausprobieren.
Grub2: Macht was es soll.
Sound: Mixing kann man doch so gut wie immer über die Anwendungen selber erledigen?
Wofür braucht man S3TC-Support mit Mesa, wenn man damit eh nichts spielen will? Bzw. laufen damit offenbar moderne Vulkan-Anwendungen.

raumfahrer
2016-12-20, 21:35:06
Punkt 1 und 2 muss man hier gekoppelt betrachten. Mit LTS releases fehlen einem idR einzelne Pakete in ner aktuellen Version. Z.B. eclipse neon. Mit rolling Distributionen will man hin und wieder eine aktuelle Version (noch) nicht installieren. Beides ist bei Linux irgendwie nicht vorgesehen. Bei gentoo hat das noch gut geklappt, aber wenn das den Desktop erobern soll, dann gute Nacht. Ich sag es fast ungern, aber mit Windows entscheidet man das letztlich selbst und wird (diesbezgl.) nicht/wenig bevormundet.
Gleichzeitig wird oft verprochen, dass es im Gegensatz zu Windows Updates für das gesamte System gibt. Das stimmt jedoch bei keiner mir bekannten Distribution. Teilweise schon innerhalb der Repos nicht (siehe Ubuntu). Sobald man aber Punkt 1 will und das passiert im Desktopeinsatz imho automatisch (und sei es nur für eine einzige Anwendung), dann war es das komplett mit einfachen Updates. Im Vergleich ist ein .msi Installer reiner Luxus...

Für mich ist das in Kombination seit Jahrzehnten ein K.O. Kriterium, auch wenn ich es als Zweitsystem gerne immer mal wieder verwende.

Was verstehst du unter "Updates für das gesamte System"?

Sehe jetzt nicht direkt, was an einzelnen aktuellen Programmen das einfache
Updaten unmöglich macht. Und was ein Windows-Installer in dem Zusammenhang
besser macht als statisch gelinkte Binaries. IIRC bringen Windows-Programme
doch auch massenweise redundantes Zeug mit, damit die Versionen stimmen.

Welche Probleme hast du damit, Programme einfach am Packetmanager vorbei z.B.
nach ~/.local zu packen? Sowas ist auf Windows ja auch gängige Praxis. Um
Updates muss man sich dann natürlich selber kümmern, aber Windows macht das ja
auch nicht besser (ob mit oder ohne Installer).

Hinsichtlich der Fixierung von Versionen kannst du dir mal den xbps
Packetmanager anschauen. Der kann bestimmte Packete auf 'hold' setzen, damit
werden automatische Updates verhindert.

Ansonsten sieht der Nix Packetmanager in der Hinsicht ziemlich gut aus. Kann
aber leider nicht aus erster Hand berichten.

Das Ganze ist auch ein wenig Philosophiefrage: Was sind sicherheitskritische
Programme? Die sollten nämlich immer und unverzüglich aktualisiert werden.
Lässt man den Nutzer darüber entscheiden? Oder sollte er es so schwer wie
möglich haben nicht die aktuellste Version zu haben?

aufkrawall
2016-12-20, 22:49:57
Bei OpenSuse wird nach meinem Eindruck zwischen Patches und Programm-Updates unterschieden (letztere optional), eigentlich sollten alle Programme in den gepflegten Repos für Leap ziemlich aktuell sein.
Edit: Bei nicht-RR wird natürlich nicht jede Systemkomponente auf den neusten Branch gehoben.

Gast
2016-12-21, 18:13:23
Sehe jetzt nicht direkt, was an einzelnen aktuellen Programmen das einfache Updaten unmöglich macht. Und was ein Windows-Installer in dem Zusammenhang besser macht als statisch gelinkte Binaries.
Nur mal ein Beispiel. Ich habe Ubuntu als guest in einer VM betrieben. Die Pakete mit den VM treibern waren schon zu Beginn nicht mehr so ganz taufrisch und bei LTS wird das ja auch nicht besser. Irgendwann ging es mit einem security update der VM software (host) den Bach runter und ich hatte ständig Grafikfehler. Ich friemelte ein bisschen rum und kam dann nicht drumherum die aktuellen VM treiber über das mitgelieferte ISO manuell zu installieren. Erst mal wieder alles super. 1-2 Monate später aktualisierte ich Ubuntu ganz normal, passte nicht so richtig auf und nebenbei machte das System ein Kernel update. Schon bootet das Ding nicht mehr - hätte ich mal vor dem reboot noch die Kernel-Module neu kompiliert. Klar kriegt man das immer irgendwie wieder hin, aber wo ist da jetzt der Vorteil des Paketmanagers, wo habe ich insgesamt Zeit gespart?

Eine weiteres Erlebnis war schon immer Qt, eigentlich Distributionsübergreifend. Es gibt 1 oder höchstens 2 Versionen. Was aber wenn der Kunde ne andere getestet haben will? Unter Windows kann man per Click jede x-beliebige Version installieren lassen. Da nehm ich gern den aktuellsten QtCreator und dann dazu die Qt Version, die eben grad gefordert ist. Ich habe bisher keine Distribution gefunden, die das unterstützen würde.

Bzw. wenn ich manuell kompiliere, einrichte usw. brauche ich viel weniger Distribution als Zeit.

aufkrawall
2016-12-22, 04:47:22
Btw: Das KWin-Compositing läuft mit dem proprietären Nvidia-Treiber völlig ruckel- und tearingfrei, wenn man dafür und im Treiber Triple Buffering einschaltet (OGL 2.0 Compositing mit vollständigem Neuzeichnen). (y)

DekWizArt
2016-12-22, 14:40:45
Bastelkram


friemelte, passte nicht genau auf, .. merkst Du selber, oder? ;)

Gast
2016-12-23, 12:02:56
friemelte, passte nicht genau auf, .. merkst Du selber, oder? ;)
Ehrlich gesagt weiss ich nicht, auf was Du genau hinweisen willst. Die Frage ist ja:
" Was müsste getan werden, damit Linux mehr Marktanteile auf Consumer-PCs erlangt?"

Und da bleibt meine Antwort. Weniger Bevormundung, bzw. mindestens Windows-ähnliche Freiheit ohne zeitraubende Frickeleien. Dazu mehr kommerzielle Angebote und besseren Treibersupport. Dann klappts vermutlich auch mit dem Desktop.
Die Usability ist da. Mit Steam und der runtime gibts vielleicht auch noch einen interessanten Impuls in Richtung Paketmanagement. Die hatten bisher ein gutes Händchen bzgl. Nutzerfreundlichkeit von Updates - wenn auch nur bei Spielen. Mal sehen wie Ubuntu mit den snaps vorwärts geht, vielleicht ist das schon wieder zu extrem. Zudem sammeln die mir auch zu viele Daten, das Vertrauen in Ubuntu ist bei mir diesbzgl. nicht sonderlich hoch.

DekWizArt
2016-12-23, 13:25:13
Was verstehst Du unter Windows-ähnliche Freiheit? Wenn Windows eins nicht hat, dann Freiheit für seine Benutzer.

aufkrawall
2016-12-23, 14:51:45
Stimmt zwar, aber das Argument mit der Frickelei bleibt halt valide und ist imho auch der wichtigste Punkt.
Windows hat ein so umfassendes UI, dass man einfach für so ziemlich jeden "Heimanwender Poweruser-Job" aufs CLI verzichten kann und auch im UI nicht lange rumsuchen muss.
So ein Beispiel wäre etwa auf eine Windows Netzwerkfreigabe ohne PW zuzugreifen. Muss man unter Linux per Terminal mounten, weil jegliche Dateibrowser trotzdem immer nach Zugangsdaten verlangen (die es halt nicht gibt). :freak:
Völlig unnötig umständlich.

anderergast
2016-12-23, 16:11:55
Die Komponenten in GNU/Linux sind halt leider nicht wirklich aufeinander abgestimmt, da kommts halt vor dass es aus sicherheitsgründen nicht anders geht um es zumindest etwas idiotensicher zu machen. Linux ist halt nicht geil als Allroundsystem, eher um es auf einen bestimmten Task zuzuschneiden, wo man sich dann halt alles selbst rauspickt und so konfiguriert wie mans braucht.

Gast
2016-12-23, 17:59:15
Was verstehst Du unter Windows-ähnliche Freiheit? Wenn Windows eins nicht hat, dann Freiheit für seine Benutzer.
Welche Distribution kann ein OpenOffice 1.0 über den default weg installieren? Qt 3? KDE 3? Postgresql 7.3? Diese sogenannte Freiheit von Linux gilt nicht uneingeschränkt und bezieht sich hauptsächlich darauf, dass man immer auf eine Distribution verzichten kann, wenn man bereit ist deren Arbeit zu übernehmen.
Daran arbeitet aber üblicherweise nicht nur einer insofern können oder wollen die meisten Anwender das nicht leisten.
Mit den Modellen updatezwang (rolling) und Lts besetzt man die 2 extreme. Dazwischen gibt es wenig alternativen, aber wenn man es ehrlich betrachtet hat Windows diese Einschränkungen sporadisch bis nicht. Selbst wenn mir die Softwareauswahl heute gefällt wer sagt mir dass es mit der nächsten Version immer noch so ist.

Ganon
2016-12-25, 15:51:03
Ja, Sinn eines Paketmanagers war es noch nie, unsupportete, veraltete und mit Sicherheitslücken behaftete Software zu installieren. Es ist übrigens genau der Sinn, dass es eben nicht dazu kommt, das man ein System voller Karteileichen hat und/oder Software nicht auf dem aktuellen Stand ist.

Was du beschreibst ist nicht der Vorteil von Windows, sondern dessen großer Nachteil, sodass sogar MS so langsam in Richtung Paket-Manager geht. Es ist sogar einer in Windows eingebaut.

Und wenn du trotzdem darauf bestehst uralt-Software zu installieren, dann kannst du dies auch in jeder Linux-Distribution tun. Da steht dir nichts im Wege. Es ist dann nur nicht viel anders als unter Windows -> du musst es manuell tun. Warum sollte jemand für dich Uralt-Varianten von Software pflegen, wenn es selbst der Ersteller der Software nicht mehr tut? Und nur weil irgend ein Uralt-Installer zufällig noch bei dir funktioniert, heißt das nicht, dass du dafür irgendwo Unterstützung findest, wenn es dieser nicht mehr tut. Es gibt genug Software die unter Windows 10 (und 7 nach entsprechenden Updates) nicht mehr funktioniert.

DekWizArt
2016-12-26, 00:46:22
Und wenn man dann doch solche Uralt Software installiert, bzw. erzwingt, sollte man sich auch nicht über Instabilitäten wundern.

Ganon
2016-12-27, 11:21:41
So ein Beispiel wäre etwa auf eine Windows Netzwerkfreigabe ohne PW zuzugreifen. Muss man unter Linux per Terminal mounten, weil jegliche Dateibrowser trotzdem immer nach Zugangsdaten verlangen (die es halt nicht gibt). :freak:
Völlig unnötig umständlich.

Und unter Windows ist es mir nicht möglich eine Freigabe als Nutzer A und eine andere Freigabe als Nutzer B einzubinden :ugly:

Grundkurs
2016-12-27, 16:43:55
Zum Windows 10-Zwangsupdate aus einem Heise-Artikel von heute (https://www.heise.de/newsticker/meldung/Microsoft-raeumt-Uebereifer-beim-Windows-10-Upgrade-ein-3582028.html):
In Folge 497 der von TWiT.tv betriebenen YouTube-Show "Windows Weekly" hat Microsofts Marketing-Chef Chris Capossela nun zu der Kampagne Stellung genommen und sich für Grenzüberschreitungen entschuldigt. Bereits innerhalb kurzer Zeit, so Capossela, habe sein Team gemerkt, dass es zu weit gegangen sei. Die Zeit danach sei sehr schmerzhaft gewesen und habe für ihn einen Tiefpunkt bedeutet. Er und seine Leute hätten auch viel daraus gelernt.

Immer wenn ich diese verlogene Logorrhoe von MS-Offiziellen lese fällt mir ganz schnell ein, warum ein noch so "frickeliges" Linux immer die bessere Alternative zu Windows war, ist und bleiben wird.

Lurtz
2016-12-27, 20:15:34
Der grundsätzliche Konflikt, der da angesprochen wird, Sicherheit vs Freiheit, halte ich aber nicht für so abwegig. Das Thema wäre bei Linux auch wesentlich schwerwiegender, würde es mehr genutzt.

BBig
2016-12-27, 23:44:54
Der grundsätzliche Konflikt, der da angesprochen wird, Sicherheit vs Freiheit, halte ich aber nicht für so abwegig. Das Thema wäre bei Linux auch wesentlich schwerwiegender, würde es mehr genutzt.

Nicht nur, dass wir hier im Was müsste getan werden, damit Linux mehr Marktanteile auf Consumer-PCs erlangt?-Thread sind, kann ich mir einen Kommentar dazu nicht verkneifen:

Was hat denn bitte das Zwangsupdate auf Windows 10 mit Sicherheit zu tun?
Ich finde, du machst es dir da zu einfach auf einen Allgemeinplatz auszuweichen. Auch wenn Windows nicht meine Baustelle ist, und ich es es auch nicht "mag", kann man sicherlich nicht sagen, dass Windows 7/8 per se nicht sicher sind.

Und das Thema Updates unter Linux ist schon irre lange vorzüglich gelöst: Alle Updates über eine einheitliche Oberfläche oder einen Befehl im Terminal - fertig.

Lurtz
2016-12-28, 14:28:22
Was hat denn bitte das Zwangsupdate auf Windows 10 mit Sicherheit zu tun?
Ich finde, du machst es dir da zu einfach auf einen Allgemeinplatz auszuweichen. Auch wenn Windows nicht meine Baustelle ist, und ich es es auch nicht "mag", kann man sicherlich nicht sagen, dass Windows 7/8 per se nicht sicher sind.
Wenn ich mal einen Win7-Rechner in die Finger bekomme, sind die letzten Patches meist vor ein paar Monaten installiert worden (trotz automatischer Updateinstallation). Das extremste war ein Notebook, wo das letzte Mal im April was installiert wurde, weil das Gerät von dem WU-Bug betroffen war und gar nichts mehr ging. Da kann man schon von inhärent unsicher sprechen. Zumal Win10 ja auch im Betriebssystemkern einige Dinge besser macht, die Win7 nie mehr bekommen wird.

Wenn ich die Win10-Rechner anschaue, die ich bei eher unkundigen Bekannten verteilt habe, sind die Updates meist aktuell und wenn dann nur wenige Wochen alt. Die Zwangsupdates und das runderneuerte WU scheinen da durchaus einiges gebracht zu haben. Rückmeldungen über Probleme habe ich keine bekommen - beim Normalanwender geht da ja auch nichts kaputt, erst recht wenn er keine ins System eingreifenden Sicherheitssuites installiert hat.

Und das Thema Updates unter Linux ist schon irre lange vorzüglich gelöst: Alle Updates über eine einheitliche Oberfläche oder einen Befehl im Terminal - fertig.
Deshalb ist noch lange nicht alles rosig, was Linux-Sicherheit angeht - zB wenn deine Distribution Webkit-Sicherheitsupdates gar nicht oder viel zu spät einspielt:
https://blogs.gnome.org/mcatanzaro/2016/02/01/on-webkit-security-updates/

lumines
2016-12-28, 14:56:12
Deshalb ist noch lange nicht alles rosig, was Linux-Sicherheit angeht - zB wenn deine Distribution Webkit-Sicherheitsupdates gar nicht oder viel zu spät einspielt:
https://blogs.gnome.org/mcatanzaro/2016/02/01/on-webkit-security-updates/

Es ist definitiv nicht optimal. Linux Mint hält ja auch Sicherheitsupdates zurück. Das Basissystem ist vermutlich bei GNU/Linux insgesamt unsicherer als bei anderen Betriebssystemen.

Das sind auch so Sachen, die tatsächlich schamlos ausgenutzt würden, wenn GNU/Linux insgesamt einen höheren Marktanteil hätte. Allerdings muss man auch dazu sagen, dass WebKit eine extreme Ausnahme ist. Ubuntu pflegt aus genau den Gründen eine eigene, auf Chromium basierende Webengine für ihre LTS-Releases, die auch normal gepflegt wird. WebKit ist natürlich nicht per se schlecht, nur passte es bisher nicht in das Konzept von lang unterstützten LTS-Releases der Distributionen.

Das ist aber auch kein Geheimnis und der Grund, warum so Distributionen wie Fedora oder Arch existieren. Für manche Software sind upstream-nahe Distributionen einfach besser, keine Frage.

Es ist aber eine sehr schwierige Sache. Bei manchen Distributionen wie Debian kann es gut sein, dass man WebKit zwar braucht, aber nicht von den Sicherheitslücken betroffen ist und auch ein altes WebKit deshalb vollkommen legitim zu benutzen ist. Mein Raspberry Pi als Retro-Konsole wird z.B. nur Offline betrieben. Manche Programme haben da Abhängigkeiten zu WebKit, aber sicherheitskritisch ist es dadurch nicht.

PHuV
2016-12-29, 14:12:33
Ja, Sinn eines Paketmanagers war es noch nie, unsupportete, veraltete und mit Sicherheitslücken behaftete Software zu installieren. Es ist übrigens genau der Sinn, dass es eben nicht dazu kommt, das man ein System voller Karteileichen hat und/oder Software nicht auf dem aktuellen Stand ist.
:
Und wenn du trotzdem darauf bestehst uralt-Software zu installieren, dann kannst du dies auch in jeder Linux-Distribution tun. Da steht dir nichts im Wege. Es ist dann nur nicht viel anders als unter Windows -> du musst es manuell tun. Warum sollte jemand für dich Uralt-Varianten von Software pflegen, wenn es selbst der Ersteller der Software nicht mehr tut?
Genau dieser Fall tritt im professionellen Umfeld aber öfters auf, als man sich vorstellt, weil eben der Hersteller oder Drittanbieter bestimmte Komponenten voraussetzt.

Nur mal ein simples Beispiel. Versuch mal selbst ein aktuelles SVN nur anhand der Quellen bzw. des Repos selbst zu bauen. Das Zeug kommt mit zig Abhängigkeiten, z.B. einer uralten BDS-DB-Version daher, damit es übersetzt werden kann. :facepalm:

Hintergrund war der, ich hatten einen alten Debian/Redhat-Server, wo das neueste SVN 1.9 nicht mehr angeboten wurde. Aufgrund eines Bugs mußte auf die neueste Version gegangen werden. Ich brauchte es aber dringend, und wollte eigentlich das CollabNet-SVN nicht haben. Da fängste an zu fummeln ohne Ende. Nach einem halben Tag habe ich aufgegeben und doch das vorgefertigte Teil von CollabNet genommen.

An so einer Stelle kann ich es sehr wohl verstehen, wenn dann ein Admin eher auf Windows als auf Linux geht. Trotz allem habe ich ich jetzt unser SVN von Windows nach Linux migriert. ;)

lumines
2016-12-29, 14:38:09
Hintergrund war der, ich hatten einen alten Debian/Redhat-Server, wo das neueste SVN 1.9 nicht mehr angeboten wurde. Aufgrund eines Bugs mußte auf die neueste Version gegangen werden. Ich brauchte es aber dringend, und wollte eigentlich das CollabNet-SVN nicht haben. Da fängste an zu fummeln ohne Ende. Nach einem halben Tag habe ich aufgegeben und doch das vorgefertigte Teil von CollabNet genommen.

Wenigstens Debian kann eigentlich vollautomatisch die Abhängigkeiten zum Bauen eigener Versionen installieren, wenn das Paket (z.B. SVN) in irgendeiner Version installierbar ist (https://wiki.debian.org/BuildingTutorial#Get_the_build_dependencies). Mit checkinstall kann man daraus dann auch semi-automatisch ein fertiges Debian-Paket schnüren. Damit hast du praktisch deine eigene Version zurückportiert.

Ist schon etwas länger her, dass ich tatsächlich einmal etwas selbst bauen musste, aber damit hatte ich eigentlich nie Probleme. Manuell den ganzen Kram zusammenzusuchen würde ich wahrscheinlich auch nicht mitmachen, aber genau dafür stellen die ganzen Distributionen ja auch Werkzeuge bereit. Wenn man das sauber erledigen will, dann geht das bedeutend einfacher als unter Windows.

PHuV
2016-12-29, 14:44:41
Wenigstens Debian kann eigentlich vollautomatisch die Abhängigkeiten zum Bauen eigener Versionen installieren, wenn das Paket (z.B. SVN) in irgendeiner Version installierbar ist (https://wiki.debian.org/BuildingTutorial#Get_the_build_dependencies). Mit checkinstall kann man daraus dann auch semi-automatisch ein fertiges Debian-Paket schnüren. Damit hast du praktisch deine eigene Version zurückportiert.
Das funktioniert aber nur, wenn das Zeugs eben auch im entsprechenden Repo vorhanden ist. ;) Ist es nicht dort, fängst Du zu suchen, fluchen und kopieren an.

lumines
2016-12-29, 15:31:42
Das funktioniert aber nur, wenn das Zeugs eben auch im entsprechenden Repo vorhanden ist. ;)

Klar, aber bei SVN wäre das ja kein Problem gewesen.

PHuV
2016-12-29, 22:22:59
Ich meinte das Package-Repo der jeweiligen Distribution.

Ganon
2016-12-30, 10:37:45
Genau dieser Fall tritt im professionellen Umfeld aber öfters auf, als man sich vorstellt, weil eben der Hersteller oder Drittanbieter bestimmte Komponenten voraussetzt.
[...]
An so einer Stelle kann ich es sehr wohl verstehen, wenn dann ein Admin eher auf Windows als auf Linux geht. Trotz allem habe ich ich jetzt unser SVN von Windows nach Linux migriert. ;)

"Professionell"... :D

Ne, also wie gesagt, auch unter Linux gibt es für etwaige Produkte fertige Pakete für die üblichen Distributionen. Alles per Hand kompilieren soll man da natürlich nicht. Ich habe auch eine geschlossene Software hier, welche eine bestimmte Qt-Version braucht und die wird in der Regel einfach mitgeliefert.

Alle glücklich machen geht halt nicht und ich sehe irgendwie nicht, warum man Millionen von Menschen die Softwareupdates selbst verwalten lassen soll, nur weil eine handvoll Software mies verpackt wird...

Dass aber LTS-Distributionen auch das komplette Userland einfrieren hatte ich hier ja schon mal kritisiert. Mir wäre die Art und Weise wie es FreeBSD macht lieber. Basissystem und Ports getrennt. Aber auch das schafft an Schnittkanten Probleme. Aber komplett unverwaltet wie unter Windows ist für mich so gar keine Lösung. Ist ja nicht umsonst so, dass ein typisches "Nutzer-Windows" offen wie ein Loch ist...

lumines
2016-12-30, 12:06:54
Ich meinte das Package-Repo der jeweiligen Distribution.

Ich glaube, wir reden da ein bisschen aneinander vorbei. Wenn SVN in irgendeiner Version vorhanden ist, dann bekommt man auch die Pakete, um es wieder selbst zu bauen. Die Abhängigkeiten zum Bauen kann man sich dann automatisch installieren lassen. Damit kann man dann auch neuere Versionen kompilieren.

Wenn sich die Abhängigkeiten stark ändern, dann bringt das natürlich nichts, aber so Projekte wie SVN sind da (afaik) eigentlich relativ beständig.

Ich habe mir auch sehr, sehr lange GIMP aus Upstream und diverse andere Software für Debian stable gebaut. Die Abhängigkeiten für alte Versionen zum Bauen waren eben drin und damit konnte man auch neue Versionen bauen. Mache ich heute nicht mehr, weil ich dafür keinen Bedarf mehr habe, aber besonders unkomfortabel fand ich das jetzt nicht. Ist natürlich mehr Aufwand als auf ein Icon zu klicken, aber es ist schon sehr nett eine sehr kleine und als .deb installierbare Binary zu haben, die gegen die installierten Systembibliotheken gelinkt ist und nicht ihren eigenen Kram mitschleppt.

Dass aber LTS-Distributionen auch das komplette Userland einfrieren hatte ich hier ja schon mal kritisiert. Mir wäre die Art und Weise wie es FreeBSD macht lieber. Basissystem und Ports getrennt. Aber auch das schafft an Schnittkanten Probleme. Aber komplett unverwaltet wie unter Windows ist für mich so gar keine Lösung. Ist ja nicht umsonst so, dass ein typisches "Nutzer-Windows" offen wie ein Loch ist...

Habe ich mir auch schon oft gedacht, aber das FreeBSD-Modell ist z.B. für Desktops schon etwas schwierig.

Ist ja nicht so, dass das Basissystem bei FreeBSD irgendwie der Goldstandard und benutzbar wäre. Bei einigen Teilen wird inoffiziell darauf hingewiesen, dass man doch besser neuere Versionen aus den Ports installieren soll und nicht den veralteten Kram aus dem Basissystem nehmen soll. Bei BIND war das lange Zeit wohl so.

Praktisch ist man dann doch wieder relativ nah an einem Rolling-Release-Modell bei FreeBSD.

Windows finde ich mittlerweile aber auch sehr speziell. Man kann sehr leicht irgendwelche jahrealten Softwareleichen auf dem Rechner haben. Dass das keine so gute Idee ist, merkt man aber auch erst nach Jahren, wenn man alle anderen Systeme einmal durch hat. Es ist schon etwas ironisch, dass Windows eventuell die sicherste Basis, aber durch komplizierte und uneinheitliche Updateroutionen das unsicherste Userland besitzt. Würde ich jetzt jedenfalls einfach so einmal behaupten.

PHuV
2016-12-30, 12:27:40
Ich glaube, wir reden da ein bisschen aneinander vorbei. Wenn SVN in irgendeiner Version vorhanden ist, dann bekommt man auch die Pakete, um es wieder selbst zu bauen. Die Abhängigkeiten zum Bauen kann man sich dann automatisch installieren lassen. Damit kann man dann auch neuere Versionen kompilieren.
Dann mach Dir mal nen Spaß, nimm ein Debian 6 (oder war es doch ein Ubuntu 12.x :uponder:), hol Dir die aktuelle SVN-Quellen direkt von Apache, und dann bau mal. :smile:
"Professionell"... :D
Ich rede jetzt von Firmen, die Linux für kommerzielle Zwecke einsetzten, sei es als Web, Proxy, Git, Jenkins, Confluence, Bitbucket, Jira, Datenbanken usw. Das ist für mich professionell, im Unterschied zur Heimanwendung und für private Zwecke.
Ne, also wie gesagt, auch unter Linux gibt es für etwaige Produkte fertige Pakete für die üblichen Distributionen. Alles per Hand kompilieren soll man da natürlich nicht. Ich habe auch eine geschlossene Software hier, welche eine bestimmte Qt-Version braucht und die wird in der Regel einfach mitgeliefert.

Tja, und sobald Du etwas andere Anforderungen auf einen bestehenden System hast, bekommst Du mit jedem Linux arge Probleme.

Ganz klar, wenn ich ein neues System aufsetze oder aufsetzen kann, nehmen ich natürlich eine entsprechende Distribution, die alles erforderliche mitbringt. Das kannst Du aber nur machen, wenn Du Hoheit über dieses Gebiet hast. Sobald Du beim Kunden bist, die wiederum die Server und VMs an eine Mutter- bzw. Tochterfirma oder einen Drittanbieter ausgelagert hat, und Du eben nicht mehr so einfach dort was neues aufbauen kannst, mußt Du Dich leider mit dem begnügen, was vor Ort ist. Das ist das eben kein Spaß mehr. Man glaubt ja gar nicht mehr, angesichts der Zeiten von VMs und Hosting, wie kompliziert das gemacht wird. :rolleyes: Gerade bei Behörden und Firmen mit entsprechenden verschärften Sicherheitsrichtlinien ist das alles leider manchmal kontraproduktiv zur geforderten Arbeitsleistung, und mal schnell so einen anderen Server hinstellen ist auch nicht. :( Und dann stehst Du da, und mußt da rummurksen. Wie gesagt, in so einer Situation verstehe ich sehr wohl, wenn man dann bei Windows bleibt (auch wenn es da wieder andere Probleme gibt).

Wenn es VMs sind, kekse ich heute nicht mehr lange rum, versuch den Kunden zu einer Datenmigration zu überreden, und setzt gleich eine neuen aktuellere Version auf. Aber wenn dann noch viele Abhängigkeiten existieren, die nicht mal der Kunde mehr peilt... Aber das ist jetzt zu sehr OT. :redface:

Exxtreme
2016-12-30, 12:37:49
Tja, und sobald Du etwas andere Anforderungen auf einen bestehenden System hast, bekommst Du mit jedem Linux arge Probleme.

Korrekt. Wobei die argen Probleme mit Frickelei lösbar sind. Unter Windows oder noch schlimmer: Macos ist das so, wenn du da etwas andere Anforderungen hast dann kannst du sie nicht erfüllen weil du nichts machen kannst.

PHuV
2016-12-30, 13:31:52
Es wird nun leider immer von gewissen "Experten" behauptet, daß entweder mit Linux oder Windows alles angeblich kein Problem oder einfacher sei. Fakt ist, Linux wie Windows nehmen sich in Komplexität und Aufwand eben nichts, selbst wenn man sich auskennt. Was bei dem einfacher ist, ist beim andere komplizierter, und umgekehrt. Man muß bei allem tief einsteigen, oftmals unfreiwillig. Das ist nun mal IT.

Ich bin ja auf beiden Welten und anderen Unixen administrativ unterwegs, in meinen Augen nehmen sich alle nix. Es ist eben nicht alles besser, egal welches Logo draufsteht.

Unfug
2016-12-30, 13:33:10
Hallo,

Aus aktuellem Anlass:

Gibt es denn schon die Möglichkeit ein Setup Paket zu schnüren, dass alle Distributionen unterstützt? Zudem wäre es hier Closed-Source mit statischen Libs, die mit ausgeliefert werden müssen.
Oder muss ich nach wie vor distributionsabhängig das Ganze machen?

lumines
2016-12-30, 13:56:48
Dann mach Dir mal nen Spaß, nimm ein Debian 6 (oder war es doch ein Ubuntu 12.x :uponder:), hol Dir die aktuelle SVN-Quellen direkt von Apache, und dann bau mal. :smile:

¯\_(ツ)_/¯

Braucht jemand ein SVN 1.9.5 Paket für Debian 6?

https://undecidable.de/~marc/subversion_1.9.5-1_amd64.deb

BBig
2016-12-30, 14:06:29
Ich benutze seit ca. 8 Monaten Appimage, wenn ich Software ausprobieren möchte.
Wenn ich etwas produktiv nutze, dann wird aber "nativ" installiert. Benutze es nur zum testen.

Nach den größeren Diskussionen Snap vs Flatpak finde ich Appimage auch erwähnenswert.
Appimage gibt es schon lange und sie haben eine große Auswahl an Apps.
Über Snaps hört man viel positives; bin ich aber noch nicht dazu gekommen.
Flatpak ist in Gnome integriert.

Selber ein Paket geschnürt habe ich noch nicht, aber ich werfe mal ein paar Links, dann kannst du selber stöbern:

https://github.com/probonopd/AppImageKit/wiki
https://github.com/probonopd/AppImageKit/wiki/Creating-AppImages

http://snapcraft.io/docs/core/

http://flatpak.org/developer.html#Building_More_Complex_Apps_With_flatpak_builder

Vll zur Übersicht: https://www.reddit.com/r/linux/search?q=snap+flatpak+appimage&sort=relevance&t=all

Unfug
2016-12-30, 15:46:12
Ich benutze seit ca. 8 Monaten Appimage, wenn ich Software ausprobieren möchte.
Wenn ich etwas produktiv nutze, dann wird aber "nativ" installiert. Benutze es nur zum testen.

Nach den größeren Diskussionen Snap vs Flatpak finde ich Appimage auch erwähnenswert.
Appimage gibt es schon lange und sie haben eine große Auswahl an Apps.
Über Snaps hört man viel positives; bin ich aber noch nicht dazu gekommen.
Flatpak ist in Gnome integriert.

Selber ein Paket geschnürt habe ich noch nicht, aber ich werfe mal ein paar Links, dann kannst du selber stöbern:

https://github.com/probonopd/AppImageKit/wiki
https://github.com/probonopd/AppImageKit/wiki/Creating-AppImages

http://snapcraft.io/docs/core/

http://flatpak.org/developer.html#Building_More_Complex_Apps_With_flatpak_builder

Vll zur Übersicht: https://www.reddit.com/r/linux/search?q=snap+flatpak+appimage&sort=relevance&t=all

Danke. AppImage kannte ich noch gar nicht, klingt aber richtig gut. Wenn Snap und Flatpak genauso sind, dann wäre das schonmal eine richtige Richtung. Ich schau mir das mal an. Danke

PHuV
2016-12-30, 16:57:36
¯\_(ツ)_/¯

Braucht jemand ein SVN 1.9.5 Paket für Debian 6?

https://undecidable.de/~marc/subversion_1.9.5-1_amd64.deb
Eh, cheaten gilt nicht, neu übersetzen, direkt, von Hand. :motz:
:biggrin:
Das hätte ich mal vor ein paar Monaten gebraucht.

lumines
2016-12-30, 17:09:28
War übrigens wirklich nur build-essential nachinstallieren und mit build-dep die Abhängigkeiten aufzulösen. Sqlite war tatsächlich zu alt, aber alle anderen Abhängigkeiten (übrigens knapp 1 GB) gingen einwandfrei. Sqlite habe ich dann noch manuell runtergeladen, aber das war's dann auch. Ich habe länger daran gesessen das Squeeze-Minimalsystem zu installieren als SVN zu kompilieren.

Ich muss aber zugeben, dass ich abseits von Debian noch nie Pakete gebaut habe. Vielleicht ist das bei Red-Hat-basierten tatsächlich komplizierter. SVN zu kompilieren und paketieren hat aber bei Debian jetzt keine halbe Stunde gedauert.

DekWizArt
2016-12-31, 09:56:27
Sehr schöner Artikel zum Jahr 2016 und 25 Jahre Linux: https://www.computerbase.de/2016-12/linux-jahresrueckblick-2016/

aufkrawall
2016-12-31, 19:35:59
Gibts eigentlich irgendeinen kompetenten Schreiber, der Canonical wohlgesonnen ist? ;D
Nicht, dass ich mir das wünschen würde. Ich hab mir nochmal Ubuntu 16.10 angeschaut und es ist der gleiche Müll (oder zumindest mal Mittelmaß) wie 16.04.
Compositor läuft immer oder maximal mit 60fps, lässt sich übers UI nicht mal ausschalten, das erstmalige Update friert ein und schrottet ein Paket für die locales, der Installer lässt einen bei einem der Dialoge ewig warten, Mir-Session führt zu Deadlock...

lumines
2017-01-01, 15:21:57
Mittlerweile sind die LTS-Versionen auch eher die Hauptversionen von Ubuntu und der Rest Vorbereitung für das nächste LTS-Release.

The_Invisible
2017-01-02, 22:06:14
Dass aber LTS-Distributionen auch das komplette Userland einfrieren hatte ich hier ja schon mal kritisiert. Mir wäre die Art und Weise wie es FreeBSD macht lieber. Basissystem und Ports getrennt. Aber auch das schafft an Schnittkanten Probleme. Aber komplett unverwaltet wie unter Windows ist für mich so gar keine Lösung. Ist ja nicht umsonst so, dass ein typisches "Nutzer-Windows" offen wie ein Loch ist...

Naja, auch nicht ganz: https://wiki.ubuntu.com/Kernel/RollingLTSEnablementStack

Das Software-Ökosystem ist einfach zu komplex, als das man RollingReleases & Stabilität vereinen kann. Die gegensätzlichen Extreme sind da wohl ArchLinux/Gentoo gegen RHEL/CentOS :D

Arch habe ich noch gut in Erinnerung wie es auf einmal von Eclipse ein Update von 3.x auf 4.x gab und quasi nix mehr ging. RHEL/CentOS kann man als Desktop nach ein paar Jahren einfach vergessen da Multimedia-Zeugs oft nur mehr mit bösen Hacks funktioniert. Wenn man beide vereint kommt quasi Windows raus, da liefert ein Programm quasi eh gleich alle .dlls mit, heißt nicht umsonst .dll hell.

Ubuntu geht für mich einen guten Mittelweg und ich habe es daher privat und beruflich im Einsatz. Bitte aber nur LTS-Versionen nehmen, alles andere ist Test/Beta/Alpha-Version.

DekWizArt
2017-01-03, 10:05:33
Ich benutze Ubuntu sowohl privat als auch beruflich und das recht gerne, die LTS Version natürlich. Ich muss nicht mehr immer das neuste haben, es geht da definitiv wenig über Stabilität.

Keine Ahnung was Du unter Fachseiten verstehst, aber die die ich kenne sprechen selten schlecht über ein stabiles Ubuntu.
Alternativ könnte ich mir noch ein openSuse vorstellen, allerdings mag ich die deb Architektur recht gerne.

Abnaxos
2017-01-03, 11:25:32
Alternativ könnte ich mir noch ein openSuse vorstellen, allerdings mag ich die deb Architektur recht gerne.
Wann hast Du das letzte Mal eine RPM-basierte Distro benutzt? Ich finde, dass openSUSE mit Zypper (und YaST) APT klar überholt hat.

Allerdings muss ich auch zugeben, dass ich schon länger keine APT-Distro benutzt habe. Aber zu dem Zeitpunkt, als ich von Ubuntu aus lauter Ärger über das ständig bis zur völligen Unbrauchbarkeit kaputte Kubuntu auf SUSE 13.1 umgestiegen bin, war Zypper klar vorne. Das ist aber auch schon ein Weilchen her.

DekWizArt
2017-01-03, 16:42:36
Ca. vor 2 oder 3Jahren bei der LPIC Vorbereitung / Prüfung.

Ganon
2017-01-04, 01:21:51
Ist ja nicht so, dass das Basissystem bei FreeBSD irgendwie der Goldstandard und benutzbar wäre. Bei einigen Teilen wird inoffiziell darauf hingewiesen, dass man doch besser neuere Versionen aus den Ports installieren soll und nicht den veralteten Kram aus dem Basissystem nehmen soll. Bei BIND war das lange Zeit wohl so.

Naja, bei einer LTS-Distribution hat man oft gar nicht die Möglichkeit "irgendwas neueres aus den Ports" zu installieren. Man kann sich ein paar inoffizielle oder halboffizielle Backport-Repos einbinden, aber funktionieren muss das ja nun auch nicht.

Praktisch ist man dann doch wieder relativ nah an einem Rolling-Release-Modell bei FreeBSD.

Mit dem Unterschied, dass bei FreeBSD oft jede von Upstream unterstützte Version auch in den Ports ist. Das ist ein Zwischending aus "ich locke das Programm auf Version X" und "Du kriegst immer die aktuellste Version". D.h. es ist z.B. jede von PostgreSQL noch unterstützte Version auch in den Ports.

Tja, und sobald Du etwas andere Anforderungen auf einen bestehenden System hast, bekommst Du mit jedem Linux arge Probleme.

Klar, Firmen haben gerne Dinge in ihren Vorschriften stehen, die jeglicher Sinnhaftigkeit entgegen gehen. Aber nur weil eine Firma etwas macht, muss es nicht professionell sein. Auch Microsoft verdient gut an Extended Support für uralte Windows Versionen, weil Firmen nicht in der Lage sind ein Update zu fahren. Und warum sind sie es nicht? Weil das Versionsdelta immer größer und größer wird. Es mag jetzt noch funktionieren. Am Ende hast du irgendwo einen PC stehen, mit einer 20 Jahre alten Installation die keiner anfassen darf und alle hoffen, dass er nicht ausfällt (http://winfuture.de/news,89825.html).

Klar kannst du bei Windows einfach die Uralt-Scheiße installieren und es geht. Geht auch unter Linux, nur halt ohne Paket-Manager wie gesagt. Ändert nichts am Problem an sich. Trotzdem sollte sich ein Paket-Manager eben am Regelfall orientieren und nicht an der Kamikaze-IT einiger Unternehmen.

Und ja, wie gesagt, eine LTS-Distribution, welche ihr komplettes Userland einfriert und sagt "wir fixen nur Sicherheitslücken, aber keine Bugs" ist nicht immer die sinnvollste Idee für einen Server. Außer man mag noch bis 2020 Python 2.6 nutzen, weil man sein CentOS nicht aktualisieren will.

StefanV
2017-01-04, 17:09:03
Naja, aber damit sind wir doch genau an dem Punkt, den ich ja schon weiter vorne erwähnt habe:
Eine "große Bude" muss alle notwendigen Pakete an sich reißen und selbst die Hand auf zumindest die Hauptbestandteile des Betriebssystemes halten - eben genau das, was Microsoft und Apple mit ihren Desktop Versionen machen.

NUR so kann das ganze wirklich was werden...


Heute morgen bin ich auch mal wieder aus den Latschen geflogen, als ich mir die Mint 18.1 Neuigkeiten angeschaut habe, für die Cinnamon Edition (https://www.linuxmint.com/rel_serena_cinnamon_whatsnew.php).

Weiter unten steht dann:

Vertical panels
Cinnamon 3.2 supports vertical panels, so you can now place panels on the side of the screen.
SRYSLY?!

Also da fehlen mir doch so ziemlich die Worte, als ich das las. Das hat mich echt fast vom Stuhl gehauen...

BBig
2017-01-05, 13:32:12
Naja, aber damit sind wir doch genau an dem Punkt, den ich ja schon weiter vorne erwähnt habe:
Eine "große Bude" muss alle notwendigen Pakete an sich reißen und selbst die Hand auf zumindest die Hauptbestandteile des Betriebssystemes halten - eben genau das, was Microsoft und Apple mit ihren Desktop Versionen machen.

NUR so kann das ganze wirklich was werden...


Heute morgen bin ich auch mal wieder aus den Latschen geflogen, als ich mir die Mint 18.1 Neuigkeiten angeschaut habe, für die Cinnamon Edition (https://www.linuxmint.com/rel_serena_cinnamon_whatsnew.php).

Weiter unten steht dann:

SRYSLY?!

Also da fehlen mir doch so ziemlich die Worte, als ich das las. Das hat mich echt fast vom Stuhl gehauen...

Linux ist das was es ist, eben weil es "keine große Bude" hinter sich hat.

Nicht nur, dass du dein DE frei wählen kannst, nein frag mal einen "Hardcore-Linux-User", was er von Mint hält.
Wie sag ich das diplomatisch? - "Es gibt überall schwarze Schafe." :rolleyes:

lumines
2017-01-05, 13:48:05
Eine "große Bude" muss alle notwendigen Pakete an sich reißen und selbst die Hand auf zumindest die Hauptbestandteile des Betriebssystemes halten - eben genau das, was Microsoft und Apple mit ihren Desktop Versionen machen.

NUR so kann das ganze wirklich was werden...

Und welche Probleme soll das konkret lösen?

Gast
2017-01-05, 20:29:29
Naja, aber damit sind wir doch genau an dem Punkt, den ich ja schon weiter vorne erwähnt habe:
Eine "große Bude" muss alle notwendigen Pakete an sich reißen und selbst die Hand auf zumindest die Hauptbestandteile des Betriebssystemes halten - eben genau das, was Microsoft und Apple mit ihren Desktop Versionen machen.

NUR so kann das ganze wirklich was werden...


Es müssen Nischen Distros für Profis her, nur so kann es etwas werden. Damit meine Ich keine Admins oder Backend Entwickler sonder wirklich kreative Leute. Firmen wie Adobe, Steinberg, Ableton usw. müssten Distros für ihre Nische entwickeln, denn Bedarf danach scheint ja nun mit der Richtung die Apple eingeschlagen hat da zu sein. Da gibt es ja etliche die Windows nie mehr anfassen wollen und eher zu Linux wechseln würden. Wenn die Pros erst mal wechseln dann würden auch viele Hobby Nutzer folgen. Minimum Viable Product, also erst die Nische dann der Rest.

aufkrawall
2017-01-05, 21:28:31
Wieso noch mehr Distributionen mit redundantem Feature-Umfang?
Und wer soll solche Nischen-Distris mit vernünftiger Qualität maintainen?
Erscheint mir ziemlich unsinnig. Btw. genau so wie diese pseudo-benutzerfreundlichen Distributionen wie Mint (und wenn ich böse wär, würd ich bez. der Desktop-Verwendung auch noch Ubuntu nennen).

Abnaxos
2017-01-05, 21:44:54
Grafik-Treiber!

Die Situation ist einfach immer noch eine Katastrophe. Ich habe es gerade eben erlebt: Ein schönes, neues, schnelles Lenovo P50 mit Xeon E3-1535M (GPU: P530) gekauft und der Intel-Treiber für die GPU ist heute, in Kernel 4.9.0, noch immer fehlerhaft bis zur Unbrauchbarkeit. Es ist echt schade. Bisher habe ich den Leuten immer empfohlen, Laptops mit der Intel-GPU zu betreiben, weil der Treiber so gut ist.

Ich muss den Laptop jetzt mit der NVidia-GPU (M2000M) betreiben. Mit dem proprietären NVidia-Treiber, Nouveau kommt mit dem Ding auch gaaanz schlecht klar.

Schade. Dass NVidia nicht mitspielt und dass das ein echtes Problem ist, ist klar. Aber wie meine Erfahrung jetzt mit dem P530 zeigt, steht Intel auch wirklich sehr schlecht da. Dass ausgerechnet der proprietäre NVidia-Treiber, den man eigentlich boykottieren sollte, die einzige Variante ist, ein stabiles X11 zu kriegen, enttäuscht mich schwer. Das Problem muss doch irgendwie in den Griff zu kriegen sein …

StefanV
2017-01-05, 21:50:16
Und welche Probleme soll das konkret lösen?
Die wichtigsten...

Dann könnte man ein Binärformat definieren, die meisten sicherheitsrelevanten Programme unter einen Hut bringen und die Sicherheitslücken fixen...

aufkrawall
2017-01-05, 21:58:22
Dass ausgerechnet der proprietäre NVidia-Treiber, den man eigentlich boykottieren sollte, die einzige Variante ist, ein stabiles X11 zu kriegen, enttäuscht mich schwer. Das Problem muss doch irgendwie in den Griff zu kriegen sein …
Was sind denn die konkreten Probleme mit der Skylake-GPU? Haswell schien mit 4.9 recht anständig zu laufen, etwa auch VAAPI ootb.
Mit meiner 1070 läuft kein Compositor zufriedenstellend, ich muss deshalb komplett auf X11-Rendering mit Tearing setzen und lasse die Anwendungen mit OpenGL ihr Vsync selbst erledigen. Also auch weit von optimal entfernt, auch wenn immerhin die Anwendungen selbst so mit voller Performance ohne Probleme laufen.
Wie sind deine Erfahrungen mit AMD?

Mit dem proprietären Nvidida-Treiber ist btw. auch das adaptive Power-Profil kaputt, das erzeugt mir delayed frames in mpv. Muss auf maximum performance schalten.

Ganon
2017-01-05, 22:23:52
Grafik-Treiber!

Die Situation ist einfach immer noch eine Katastrophe. Ich habe es gerade eben erlebt: Ein schönes, neues, schnelles Lenovo P50 mit Xeon E3-1535M (GPU: P530) gekauft und der Intel-Treiber für die GPU ist heute, in Kernel 4.9.0, noch immer fehlerhaft bis zur Unbrauchbarkeit. Es ist echt schade. Bisher habe ich den Leuten immer empfohlen, Laptops mit der Intel-GPU zu betreiben, weil der Treiber so gut ist.

Öh, sicher, dass da nicht deine Distribution / deine Kernel-Parameter zerferkelt sind? Auf dem PC einer Freundin mit i5-6500 (iGPU ist die 530) läuft alles super.

Abnaxos
2017-01-06, 00:44:02
Wie sind deine Erfahrungen mit AMD?
Damit habe ich keine Erfahrungen. Findet man selten bis nie in Laptops, die als Desktop-Ersatz geeignet sind. Zumindest nicht bei Lenovo.

Öh, sicher, dass da nicht deine Distribution / deine Kernel-Parameter zerferkelt sind? Auf dem PC einer Freundin mit i5-6500 (iGPU ist die 530) läuft alles super.
Ja, da bin ich ziemlich sicher. Ich kann aber nicht ausschliessen, dass UEFI daran schuld ist. Denn beim Installationssystem zeigte sich ganz klar: Es bootet ohne UEFI, mit UEFI bleibt es aber hängen (ausser man setzt nomodeset oder nolapic, womit aber fast der ganze Rest nicht mehr funktioniert). Das war der Stand mit Kernel 4.4: Bleibt bei "Setting up udev" meist hängen, wenn UEFI aktiviert ist. Leider muss UEFI aktiviert sein, weil sich das Gerät sonst weigert, von der PCIe/NVMe-SSD zu booten.

Kernel 4.7: Bootet zuverlässig, aber sonst verschiedenste Probleme. Noch mehr Probleme, sobald man via Bumblebee einen zweiten Monitor anschliesst (PRIME geht gar nicht). Das muss sein, weil der Laptop mein primäres Gerät ist. Hart an der Grenze zur Unbrauchbarkeit.

Kernel 4.9: Keine Änderung gegenüber 4.7.

Kernel 4.9 + nvidia: Bisher perfekt. Das Gerät braucht halt mehr Strom, es wird etwas wärmer und der Kernel ist tainted, aber sonst die letzten drei Tage keinerlei Beschwerden, alles tut ganz genau so wie es muss.

Der Zusammenhang mit UEFI scheint ziemlich offensichtlich, es ist auch gut möglich, dass das BIOS buggy ist (ich habe es upgraded). Die Distro ist openSUSE 42.2.

Aber das zieht sich durch meine mittlerweile 15jährige Geschichte mit Linux und Laptops durch: Immer, wirklich immer, habe ich mit der Grafikkarte Probleme. Ich habe zwar noch jeden Laptop irgendwann irgendwie besiegt, aber die Grafik funktionierte noch nie einfach out-of-the-box vollständig. Es geht auf die Nerven.

lumines
2017-01-06, 02:35:01
Dann könnte man ein Binärformat definieren, die meisten sicherheitsrelevanten Programme unter einen Hut bringen und die Sicherheitslücken fixen...

Dir ist klar, dass die Software überwiegend nicht von den Distributionen entwickelt wird, oder?

Ich glaube die Diskussion hatten wir aber schon einmal.

iuno
2017-01-06, 02:52:27
@Abnaxos: ich habe mit der Skylake IGP ootb glaube ich genau 0 Probleme gehabt, uebrigens auch mit uefi.
Es ist aber schon auch ein ziemlicher Unterschied, ob man nur die IGP hat oder eben Bumblebee benutzen will. Mit letzterem habe ich keine Erfahrungen. Was sind denn die verschiedenen Probleme, die du schon ohne Bumblebee hast?
Der DP/HDMI(?) Port haengt sicher an der Nvidia oder?
Ich kaufe solche Hardware einfach nicht mehr, aber natuerlich ist das nicht ueberall eine Option.

Gast
2017-01-06, 14:23:38
Wieso noch mehr Distributionen mit redundantem Feature-Umfang?


Redundant ist doch sowieso. Was soll man mit Libre Office und dem anderen Kram wenn der Normalo mit Google Apps & co. viel besser bedient ist, und eh fast Alles außerhalb seines Spezialgebiets im Browser und auf dem Smartphone macht.

Linux sollte dort ansetzen wo wirklich ein Mehrwert entstehen kann! Z.b eben als Plattform für Spezialsoftware auf der auch Google Chrome rennt, mehr brauchen doch die Meisten nicht. Alles andere ist doch Zeit und Ressourcenverschwendung.

Ganon
2017-01-06, 18:17:40
Ja, da bin ich ziemlich sicher. Ich kann aber nicht ausschliessen, dass UEFI daran schuld ist. Denn beim Installationssystem zeigte sich ganz klar: Es bootet ohne UEFI, mit UEFI bleibt es aber hängen (ausser man setzt nomodeset oder nolapic, womit aber fast der ganze Rest nicht mehr funktioniert).

Ich vermute eher, dass dein BIOS/EFI da irgendwas zerferkelt. Das liegt mit ziemlich hoher Wahrscheinlichkeit nicht am Treiber selbst, denn der funktioniert hier auf verschiedenen Systemen super. Gerade in den Optimus-Systemen geht sowas sehr schnell.

Dass Hardware auch Linux-kompatibel sein muss, ist auch heute noch der Fall, ja. Das hilft dir jetzt natürlich nicht, aber wenn der Hardwarehersteller da irgendwas "spezielles" macht, dann kann da der generische Linux-Treiber nicht viel für. Man siehe Lenovos letztes "Windows-only Notebook" mit BIOS Auswahl für Windows oder Linux.

Ich hatte auch diverse andere Notebooks vor mir, welche auch unter Windows mit den generischen Hersteller-Treibern nicht funktionieren. Dort musste man die Treiber vom Notebook-Hersteller nehmen. Unter Linux ist dann natürlich auch Terror. Sony ist hier so ein Kandidat. Man kann also auch durchaus immer Hardware kaufen, welche garantiert Stress macht.

Ansonsten kann ich nur sagen, dass ich sowohl mit dem OpenSource Intel Treiber als auch den OpenSource AMD Treiber (zumindest der r600 Treiber) hier relativ wenig Probleme habe. Also nichts was mir nicht auch in Windows schon passiert wäre. Der Closed Source NVidia Treiber funktioniert hier auch relativ gut, ist aber so rein featuretechnisch recht hinterher.

Abnaxos
2017-01-06, 19:19:18
Dass Hardware auch Linux-kompatibel sein muss, ist auch heute noch der Fall, ja. Das hilft dir jetzt natürlich nicht, aber wenn der Hardwarehersteller da irgendwas "spezielles" macht, dann kann da der generische Linux-Treiber nicht viel für. Man siehe Lenovos letztes "Windows-only Notebook" mit BIOS Auswahl für Windows oder Linux.

Ich hatte auch diverse andere Notebooks vor mir, welche auch unter Windows mit den generischen Hersteller-Treibern nicht funktionieren. Dort musste man die Treiber vom Notebook-Hersteller nehmen. Unter Linux ist dann natürlich auch Terror. Sony ist hier so ein Kandidat. Man kann also auch durchaus immer Hardware kaufen, welche garantiert Stress macht.
Lenovo gehört meist (!) nicht zu der Hardware, die immer Stress macht, schon gar nicht die High-End-Geräte. Im Gegenteil: Ubuntu & RHEL werden bei Lenovo als unterstützte Betriebssysteme für den P50 aufgelistet. Dass es bei mir openSUSE ist, halte ich für ein Detail.

@Abnaxos: ich habe mit der Skylake IGP ootb glaube ich genau 0 Probleme gehabt, uebrigens auch mit uefi.
Es ist aber schon auch ein ziemlicher Unterschied, ob man nur die IGP hat oder eben Bumblebee benutzen will. Mit letzterem habe ich keine Erfahrungen. Was sind denn die verschiedenen Probleme, die du schon ohne Bumblebee hast?
Das ist eine hochinteressante Frage. Wie ich jetzt sehe, werden es immer mehr Probleme, die ich hatte, aber nie auf den Grafiktreiber geschoben hätte. Instabilitäten in KDE gehen darunter, aber auch das Problem, dass bei manchen Programmen (sowohl Qt als auch GTK) der aktive Menü-Punkt nicht hervorgehoben wurde. Ein Klick tat, was er tun sollte, aber es gab einfach kein visuelles Feedback. Diese Dinge sind alle verschwunden. Das zieht sich jetzt inzwischen von 42.1 nach 42.2 und (versetzt) von einem T530 auf ein P50.

Grafikfehler in Chrome waren auch so ein Problem, vor allem mit Software-Rendering (WTF). Am Schluss hat der Screen-Locker damit angefangen, statt des UI für den Lockscreen einfach einen "Screenshot" des Desktops, wie er zum Zeitpunkt des Locks war, anzuzeigen. Manchmal war auch der Desktop-Hintergrund einfach schwarz, das Hintergrundbild wurde nicht gezeichnet. Das klingt nach zu wenig Grafikspeicher, aber Intel hatte sich laut glxinfo ca. 3GB gekrallt, das dürfte eigentlich mehr als genug sein für ein wenig Desktop-Compositing.

Es waren viele kleine und manche grosse Sachen, und es wurden immer mehr. Jetzt ist alles mit einem Schlag weg, von vielem hätte ich nie gedacht, dass es mit einem Wechsel des Grafiktreibers verschwindet.

Allerdings wollte KWin einfach kein OpenGL verwenden, als ich auf NVidia umgestellt hatte. Wie ich aus dem Arch-Wiki erfahren habe, speichert sich KWin manche Sachen in ~/.config/kwinrc, die es offenbar "herausfindet" und die im UI nicht sichtbar sind (Link (https://wiki.archlinux.org/index.php/KDE#Desktop_compositing_is_disabled_on_my_system_with_a_modern_Nvidia_GPU)). KWin kommt scheinbar nicht auf die Idee, das Zeugs zurückzusetzen, wenn sich an der GPU etwas ändert. Ich habe alles unter [Compositing] gelöscht und KWin neu gestartet, dann ging es. Wer weiss, was diese Einstellungen alles kaputt gemacht haben, vielleicht wäre es jetzt wieder einen Versuch wert mit Intel. (Der Hänger bei "Setting up udev" gehört definitiv nicht in die Kategorie, aber das war ja wirklich nur Kernel 4.4. 3.x von SUSE 42.1 und neuere inoffizielle Kernel haben das Problem nicht.)

Erstmal bin ich so überglücklich, noch nie lief alles so gut wie jetzt gerade. Aber wenn ich wieder in Bastellaune komme (das kommt bestimmt wieder), werde ich nochmal schauen. Fürs Erste habe ich genug davon, nach über einem Monat Dauergebastel mit Kernel, Grafiktreibern und X.org.

Der DP/HDMI(?) Port haengt sicher an der Nvidia oder?
Ich kaufe solche Hardware einfach nicht mehr, aber natuerlich ist das nicht ueberall eine Option.
Das scheint bei Lenovo so üblich zu sein, ja. Und ich kaufe eigentlich nur Lenovo (T-Serie, jetzt erstmals P-Serie). Ich habe einfach zu viele zu gute Erfahrungen damit gemacht, um etwas Anderes überhaupt anzuschauen.

Vielleicht sollte ich mir abgewöhnen, immer das gesamte Home-Verzeichnis mitzunehmen und die Konfiguration immer mal wieder von Null auf neu zu machen. Über die Jahre sammelt sich da offenbar viel Müll an, der auch Zeugs kaputt machen kann. Es ist zwar keine allmächtige Datenbank wie die Windows-Registry, aber das Problem ist grundsätzlich dasselbe … ;)

aufkrawall
2017-01-06, 19:41:51
Und wenn du mal testweise eine Gnome-Session startest?
Man liest ziemlich viel von Problemen mit KDE und Multimonitor, evtl. ist Bumblebee ja auch kritisch.
Ich kann wie gesagt nur abraten von KWin-Compositing + Nvidia, das funktioneirt einfach nicht richtig. Zum Beispiel habe ich übles Gestotter damit in mpv unter bestimmten Bedingungen, das mpv aber selber nicht in den Statistiken erkennt.
Schätze, das wird ohne Wayland nie etwas.

lumines
2017-01-06, 19:43:50
Lenovo gehört meist (!) nicht zu der Hardware, die immer Stress macht, schon gar nicht die High-End-Geräte. Im Gegenteil: Ubuntu & RHEL werden bei Lenovo als unterstützte Betriebssysteme für den P50 aufgelistet. Dass es bei mir openSUSE ist, halte ich für ein Detail.

Ob High-End oder nicht ist da relativ egal. Lenovo-Hardware ist meistens relativ unproblematisch, weil die viel von Intel verbauen. Mit Nvidia begibt man sich direkt in die Welt der Schmerzen, vor allem mit Optimus. Daran kann Lenovo auch nichts ändern.

Gast
2017-01-06, 20:11:53
Ob High-End oder nicht ist da relativ egal. Lenovo-Hardware ist meistens relativ unproblematisch, weil die viel von Intel verbauen. Mit Nvidia begibt man sich direkt in die Welt der Schmerzen, vor allem mit Optimus. Daran kann Lenovo auch nichts ändern.

Ich habe ein altes lenovo thinkpad T520, auf das ich ein Linux aufspielen möchte.
Es befindet sich eine Nvidia GPU drin + Optimus.

Ich wollte ursprünglich die Nvidia GPU auch nutzen, weil der HDMI-Ausgang nur mit Nvidia nutzbar ist und von dem Plus an Power profitieren. Allerdings reicht wahrscheinlich im Alltag auch die Intel IGP und HDMI brauche ich evtl. nicht unbedingt.
=> Intel?

Abnaxos
2017-01-06, 20:17:49
Und wenn du mal testweise eine Gnome-Session startest?
Kann man mal versuchen. Ich versuche aber eher zu verhindern, ganz GNOME zu installieren.

Man liest ziemlich viel von Problemen mit KDE und Multimonitor, evtl. ist Bumblebee ja auch kritisch.
Das Setup lief lange sehr gut mit dem T530. Dieses Mal scheinen die Probleme eher von Intel ausgegangen zu sein.

Schätze, das wird ohne Wayland nie etwas.
Auf Wayland setze ich auch viel Hoffnung, aber das dauert wohl noch ein Weilchen. Vor allem, bis die ganzen Applikationen auch alle nachgezogen sind.

Mit Nvidia begibt man sich direkt in die Welt der Schmerzen, vor allem mit Optimus. Daran kann Lenovo auch nichts ändern.
In diesem Fall war NVidia die Rettung. Optimus aus, NVidia-Treiber rein → perfekt. Aber das wird bei irgend einem zukünftigen Update wieder kaputt gehen, da hast Du Recht. NVidia ist diesbezüglich recht zuverlässig.

StefanV
2017-01-07, 01:05:35
Dir ist klar, dass die Software überwiegend nicht von den Distributionen entwickelt wird, oder?
Ja, das weiß ich doch.
Ich meinte auch mit 'an sich reißen', dass man die Entwicklung der entsprechenden Bausteine übernimmt.
Also nicht nur Kernel liefert sondern ein deutlich größeres Paket, dass dann quasi (minimal) die Funktionalität eines DOS hat, mit entsprechenden Kernel Mode Treibern und definiertem Binärformat, ggF auch noch einem Binärtreiberformat (=*.DLL :D).



Ich glaube die Diskussion hatten wir aber schon einmal.
Ja, möglich.
Aber ich find Linux braucht immer noch sehr viel Arbeit. Und jemanden, der das Geld und den Willen hat, die wichtigsten Dinge selbst zu entwickeln/zu forken. Und auch Schnittstellen zu definieren und jeder der Will, kann das ganze halt 'wie Windows' oder ähnlich nutzen.

Ganon
2017-01-07, 03:05:28
Sofern ich das was du da verlangst richtig verstehe... das ist schon ewig "Standard" in GNU/Linux und war und ist auch nicht das "Problem". Und was auch immer du mit Binärformat meinst... unter einem GNU/Linux ist das ELF. "Das Problem" ist auch kein Problem, sondern ist einfach dadurch bedingt, dass ein GNU/Linux eben frei ist. Jeder kann ein Linux anbieten. Und auch kann jeder einen Desktop dafür schreiben.

Wie ich hier schon gesagt habe... "Der Standard Desktop" in Linux ist das was man z.B. mit Fedora bekommt, oder auch ArchLinux und Debian nachdem man den GNOME-Desktop installiert hat. Das heißt: Linux, Glibc, Systemd, Pulseaudio, NetworkManager, GNOME Desktop. An diesen Komponenten wird von einem Großteil der Entwickler gearbeitet. Das macht aber auch nicht sämtliche anderen Linux-Distributionen inkompatibel.

Auch wenn gerade im deutschen Raum KDE sehr viele Freunde hat, macht es ihn nicht zu einem hochwertigen Desktop. Und wenn einem GNOME nicht gefällt... joahr, Pech gehabt. Bei Windows und OSX kannst du das Interface auch nicht austauschen. Wie gesagt, nur weil man in Linux das Interface austauschen kann, heißt es nicht, dass es keinen "roten Faden" in der Entwicklung des Linux-Desktops gibt. Will sagen: Die meisten Forderungen die hier gestellt werden, sind schon seit Jahren umgesetzt... nur nutzt sie eben kaum einer hier.

Und wenn hier alle Leute sich nur Ubuntu oder Derivate wie Mint auf die Platte bügeln, dann ist das nunmal nicht "der Standard Linux Desktop", sondern das was andere sich darunter vorstellen.

Die treibende Kraft (und Firma) hinter GNU/Linux war und ist nunmal RedHat. Was andere Firmen oder Communities so treiben, dafür können die nichts. Und gerade wenn dir nicht gefällt, was RedHat so treibt, dann kann man froh sein, dass es gerade diese anderen Firmen und Communities gibt. Aber dann sollte man sich nicht über einen "fehlenden" Standard beschweren, nur weil einem der vorhandene nicht gefällt ;)

aufkrawall
2017-01-07, 03:28:00
Was unterscheidet denn einen "hochwertigen" von einem nicht hochwertigen Desktop?

Ganon
2017-01-07, 03:39:29
Am Grad wie sehr er dem Nutzer im Weg steht.

Ganz davon ab, dass mich bei so gut wie jedem Versuch KDE zu nutzen direkt ein Crash-Fenster von irgend einem Sub-Dienst begrüßt, ist der Compositor einfach Mist.

Nicht umsonst empfiehlt sogar der Entwickler von KWin selbst, dass man das Compositing bei Spielen abschalten soll, oder direkt einen zweiten X-Server startet... sorry, aber Windows, OSX und auch GNOME implementieren einfach den Compositor Bypass und gut ist. KDE tut dies nicht. Das sind Sachen über die sollte sich ein normaler Anwender nie Gedanken machen müssen.

aufkrawall
2017-01-07, 04:29:58
Am Grad wie sehr er dem Nutzer im Weg steht.

Na ja, warum gibts wohl das Cinnamon-Geraffel. Die Anpassbarkeit von Gnome ist trotz Extensions kaum vorhanden. Bei KDE kannst du eigentlich so gut wie jedes Element stark anpassen.
Mit Gnome Wayland gibts doch nicht mal mehr Desktop-Icons?


Ganz davon ab, dass mich bei so gut wie jedem Versuch KDE zu nutzen direkt ein Crash-Fenster von irgend einem Sub-Dienst

Hatte ich mit Leap/Tumbleweed noch gar nicht.


begrüßt, ist der Compositor einfach Mist.

Und mit Gnome verschieben sich Fenster bei dir komplett ruckelfrei und ohne Auswirkungen auf den Inhalt bzw. der Inhalt läuft garantiert ruckelfrei?
Wenn nicht, ist der Sinn eines X11-Compositors imho entstellt.


Nicht umsonst empfiehlt sogar der Entwickler von KWin selbst, dass man das Compositing bei Spielen abschalten soll, oder direkt einen zweiten X-Server startet... sorry, aber Windows, OSX und auch GNOME implementieren einfach den Compositor Bypass und gut ist. KDE tut dies nicht. Das sind Sachen über die sollte sich ein normaler Anwender nie Gedanken machen müssen.
Sollte mit Wayland Geschichte sein, weil das vorsieht, dass Vollbild direkt an DRM ausgegeben wird.

DekWizArt
2017-01-07, 09:20:39
Also mir steht weder Gnome3, Plasma5 noch Unity im Weg.

Ganz ehrlich liest sich das Pro RedHat Posting auch absolut austauschbar wie so viele Kommentare zu Linux, welche Firma jetzt eventuell den "Hut" auf hat. ;)

Das ist eben genau der Vorteil, es gibt nicht DIE Firma.

Ganon
2017-01-07, 11:13:50
Na ja, warum gibts wohl das Cinnamon-Geraffel. Die Anpassbarkeit von Gnome ist trotz Extensions kaum vorhanden. Bei KDE kannst du eigentlich so gut wie jedes Element stark anpassen.
Mit Gnome Wayland gibts doch nicht mal mehr Desktop-Icons?

Hatte ich mit Leap/Tumbleweed noch gar nicht.

Und mit Gnome verschieben sich Fenster bei dir komplett ruckelfrei und ohne Auswirkungen auf den Inhalt bzw. der Inhalt läuft garantiert ruckelfrei?
Wenn nicht, ist der Sinn eines X11-Compositors imho entstellt.

Sollte mit Wayland Geschichte sein, weil das vorsieht, dass Vollbild direkt an DRM ausgegeben wird.

Wie schon gesagt, wenn dir GNOME nicht gefällt, sei froh, dass es Alternativen gibt. Es ändert aber nichts an der Aussage.

KDE ist nunmal "nur" ein alternativer Desktop. Die KDE Community arbeitet weder am Kernel, noch am Init-System, noch am Netzwerk-Dienst noch an Xorg oder Wayland und auch nicht an den Grafiktreibern. Wie viele KDE Entwickler arbeiten an Qt mit?

So ziemlich alles was man heute auf dem Linux-Desktop so nutzt wird entweder komplett oder zum Teil mit bei RedHat entwickelt, ein anderer großer Teil bei Intel. Und wenn es nunmal um den "Standard-Linux Desktop" geht, dann ist das nunmal das was RedHat abliefert. Denn von denen kommt all der Kram. Fällt einem nur weniger auf, da im Linux-Bereich (sinnvoller Weise) die tätige Person im Vordergrund steht und nicht die Firma, die die Person bezahlt.

Zwischenzeitlich hat Canonical versucht einen eigenen Weg zu gehen, sind aber am Ende auch wieder mehr oder weniger beim Standard, mal vom Desktop abgesehen. Sie müssten als letzte Selbstentwicklung noch den Mir Display Server aufgeben...

Also wie gesagt... der komplette Linux-Stack vom Kernel bis zu GTK hoch wird je nach Ebene entweder komplett oder teilweise von RedHat entwickelt. Und gerade NVidia User sollten das nicht vergessen, denn GNOME ist der Desktop, der Wayland auf NVidia ermöglicht ;)

Gast
2017-01-07, 11:30:53
Es ist zudem so, dass die ein oder andere (ehemalige) KDE-Anwendung zwar nach wie vor Qt als Framework nutzt aber die Abhängigkeiten zu KDE beseitigt hat.
Ein schönes Beispiel dafür ist die IMHO gelungene Software digiKam. Lässt sich daher mittlerweile auch problemlos unter macOS und Windows nutzen und direkt installieren (mit dem Windowsport habe ich selber aber keine Erfahrung).


Budgie basiert AFAIK ebenfalls auf Gnome.
https://solus-project.com/budgie/

Gast
2017-01-07, 11:39:02
Zwischenzeitlich hat Canonical versucht einen eigenen Weg zu gehen, sind aber am Ende auch wieder mehr oder weniger beim Standard, mal vom Desktop abgesehen. Sie müssten als letzte Selbstentwicklung noch den Mir Display Server aufgeben...
Unity bleibt wohl noch. Habe Unity selber noch nie intensivgenutzt und bin über das Rumspielen nicht rausgekommen, konnte aber den teilweise schlechten Ruf nicht nachvollziehen. Mir schien es in der kurzen Zeit recht gelungen und hat mich an die macOS Oberfläche teilweise stark erinnert, was ggf. auch die unterschiedlichen Meinungen dazu erklären könnte.

Ganon
2017-01-07, 11:57:13
Es geht da jetzt auch weniger um das für-und-weder von den einzelnen Desktops. Es geht mir in erster Linie um die Leute, die alle Jahre wieder die alte Leier auflegen "Linux braucht einen Standard" ... "eine Firma müsste sich dem mal annehmen" usw. usw.

Wenn dann aber diese Person kommt, sich Kubuntu installiert... also ein Derivat eines Derivats von einem Fork... und dann sagt: "Funktioniert alles nicht, Linux hat halt kein Standard"... dann kann ich mir da halt nur an den Kopf fassen.

Ganon
2017-01-07, 12:06:29
Und bevor es wieder jemand falsch versteht. Die Aussage soll nicht sein "alles außer GNOME ist scheiße". Es ist nur so dass Forks wie MATE oder Cinnamon, oder Derivate wie Kubuntu eben eher kleine Entwickler-Teams haben und mehr oder weniger "Fan/Community-Projekte" sind.

lumines
2017-01-07, 13:58:39
Verstehe auch nicht so ganz, warum Windows-Umsteiger immer erst zu solchen Distributionen greifen und sich dann beschweren, dass das alles so unprofessionell wirkt. Überraschung: Es ist unprofessionell, weil da kein Geld fließt. Das muss nicht schlecht sein (siehe Debian), aber wenn kein Geld da ist und wenige Leute daran arbeiten, sollte man nicht zu viel erwarten.

Und ich kann nur immer wieder sagen: Es ist total paradox noch mehr Einheitlichkeit zu verlangen als wir momentan haben. Wir haben schon eine Red-Hat- / Poettering-Monokultur. Alle großen Distributionen laufen praktisch auf Software von Red Hat. Warum wird das immer wieder ignoriert und tausendfach in diesem Thread durchgekaut?

Ihr müsst das mir (und Ganon) auch gar nicht blind glauben, wenn das nicht überzeugend ist. Öffnet einfach mal die „Credits“ der ganzen Programme und guckt nach, wer von den Leuten bei Red Hat oder einem anderen großen Unternehmen arbeitet.

PHuV
2017-01-07, 14:42:03
Blöde Frage, was verwendet Ihr eigentlich, wenn Ihr X11 per TCP durchreichen müßt?

Hummigbird Exceed ist abartig teuer geworden, und leider auch so kompliziert und fehlerhaft, daß ich es gar nicht mehr verwenden mag. Reflections ist altbacken und mit einigen Bugs behaftet. XMing ist auch ein Gefummel, zudem man schwer an neue Versionen kommt, weil der Entwickler eine Diva ist, und man permanent "spenden" muß, bzw. grundlos Spenden abgelehnt werden.
XRDP bekomme ich nicht auf eigen Maschinen gar nicht zum Laufen.

Ich verwende der Einfachheit halber aktuell immer MobaXterm, welches anscheinend aktuelle XMing-Bibliotheken benutzt.

lumines
2017-01-07, 15:07:49
Sehr langsam, aber zuverlässig: SSH mit X-Forwarding

The_Invisible
2017-01-07, 15:15:50
Verstehe auch nicht so ganz, warum Windows-Umsteiger immer erst zu solchen Distributionen greifen und sich dann beschweren, dass das alles so unprofessionell wirkt. Überraschung: Es ist unprofessionell, weil da kein Geld fließt. Das muss nicht schlecht sein (siehe Debian), aber wenn kein Geld da ist und wenige Leute daran arbeiten, sollte man nicht zu viel erwarten.

Und ich kann nur immer wieder sagen: Es ist total paradox noch mehr Einheitlichkeit zu verlangen als wir momentan haben. Wir haben schon eine Red-Hat- / Poettering-Monokultur. Alle großen Distributionen laufen praktisch auf Software von Red Hat. Warum wird das immer wieder ignoriert und tausendfach in diesem Thread durchgekaut?

Ihr müsst das mir (und Ganon) auch gar nicht blind glauben, wenn das nicht überzeugend ist. Öffnet einfach mal die „Credits“ der ganzen Programme und guckt nach, wer von den Leuten bei Red Hat oder einem anderen großen Unternehmen arbeitet.

Also ich kenne keinen (außer Firmen) die RHEL/CentOS als Desktop laufen haben. Warum dürfte auch klar sein, die Software ist so steinalt und eingeschränkt das man da privat nicht viel machen kann. Bei anderen Distros muss man halt wieder oft patchen und kriegt ein paar Bugs rein die es original nicht gegeben hat. Das ist für mich kein Standard.

Ich empfehle daher jeden plain Ubuntu LTS (mit ltsenablement stacks) und aus. Bringt den besten Kompromiss aus Aktualität, Stabilität und Benutzerfreundlichkeit. Ist zwar hier recht verpönt aber ist mir egal, wir haben viele Linux-Neulinge damit ausgestattet und diese sind sehr zufrieden.

Ganon
2017-01-07, 15:17:59
RHLE und CentOS sind auch Server-Distributionen ;) Die Desktop-Variante ist Fedora.

lumines
2017-01-07, 15:18:20
Ich empfehle daher jeden plain Ubuntu LTS (mit ltsenablement stacks) und aus. Bringt den besten Kompromiss aus Aktualität, Stabilität und Benutzerfreundlichkeit. Ist zwar hier recht verpönt aber ist mir egal, wir haben viele Linux-Neulinge damit ausgestattet und diese sind sehr zufrieden.

Klar, ändert aber nichts daran, dass die Software überwiegend von Red Hat kommt. NetworkManager, systemd, PulseAudio, GNOME, etc. sind alles Dinge, die bei Red Hat entstanden sind oder mindestens stark beeinflusst werden.

Fedora wird sicher auch interessanter mit den besseren Distro-Upgrades der letzten Versionen.

aufkrawall
2017-01-07, 16:36:11
Man muss nicht so tun, als wär der Gnome-Compositor Mutter das Nonplusultra. Mit X11 ist das Teil im Vergleich zum Windows 10-Compositing auch nur der letzte Müll.
-ruckelt beim Verschieben der Fenster
-Verschieben der Fenster lässt Fensterinhalt ruckeln
-Chromium zeigt mir bei vsynctester.com sporadisch seltsame Schwankungen an
Und die Gnome Wayland-Session auf Nvidia funktioniert hier mit Tumbleweed auch noch nicht...

Ganon
2017-01-07, 16:49:28
Man muss nicht so tun, als wär der Gnome-Compositor Mutter das Nonplusultra.

Nunja, für Linux ist es der beste Compositor.


-ruckelt beim Verschieben der Fenster
-Verschieben der Fenster lässt Fensterinhalt ruckeln
-Chromium zeigt mir bei vsynctester.com sporadisch seltsame Schwankungen an

Bei mir nicht. Intel & AMD. edit: Modesetting-Treiber für Xorg wohlgemerkt.


Und die Gnome Wayland-Session auf Nvidia funktioniert hier mit Tumbleweed auch noch nicht...

Ist erst in der aktuellen Entwickler-Version drin. GNOME 3.24 hat es dann drin. KDE hat die Aufnahme des NVidia-Pfads abgelehnt.

aufkrawall
2017-01-07, 17:10:50
Nunja, für Linux ist es der beste Compositor.

KWin ist mit X11 wackelig, ja. Das heißt aber nicht, dass er prinzipiell schlechter wäre.
Abgesehen davon ist das für mich ziemlich unbedeutend im Vergleich zu einer vernünftig anpassbaren Bedienung. Btw. spinnt Gnome auch dort bei einfachen Dingen rum, manchmal reagieren z.B. die Umschalt-Knöpfe bei Klicks nicht so wie erwartet. Nicht besonders polished.
Firefox, Chromium, Spiele und mpv haben ihr eigenes Vsync, da tut der Verzicht auf einen Compositor nicht weh.


Bei mir nicht. Intel & AMD. edit: Modesetting-Treiber für Xorg wohlgemerkt.

Ich warte noch auf einen Oland-Nachfolger, dann werde ich mir eine AMD Test- und Backupkarte zulegen. Ich glaub meist nicht, was andere mir bez. Ruckeln erzählen. :P


Ist erst in der aktuellen Entwickler-Version drin. GNOME 3.24 hat es dann drin.

Aha. Werd es dann im März testen bzw. früher, wenn es eine brauchbare Vorabversion per Repo geben sollte.


KDE hat die Aufnahme des NVidia-Pfads abgelehnt.

Was aber nicht heißt, dass es nie KWin Wayland auf Nvidia geben wird.
Btw. bist du doch sonst fleißig am (zurecht) auf Nvidia eindrischen bez. Linux. ;)

Ganon
2017-01-07, 17:26:45
KWin ist mit X11 wackelig, ja. Das heißt aber nicht, dass er prinzipiell schlechter wäre.
Abgesehen davon ist das für mich ziemlich unbedeutend im Vergleich zu einer vernünftig anpassbaren Bedienung. Btw. spinnt Gnome auch dort bei einfachen Dingen rum, manchmal reagieren z.B. die Umschalt-Knöpfe bei Klicks nicht so wie erwartet. Nicht besonders polished.

Wie gesagt, nur weil dir GNOME nicht gefällt, macht es ein Teil davon nicht schlecht ;)


Firefox, Chromium, Spiele und mpv haben ihr eigenes Vsync, da tut der Verzicht auf einen Compositor nicht weh.

Zerrissene Fenster beim Verschieben kann ich so gar nicht leiden.


Ich warte noch auf einen Oland-Nachfolger, dann werde ich mir eine AMD Test- und Backupkarte zulegen. Ich glaub meist nicht, was andere mir bez. Ruckeln erzählen. :P

Joahr, du musst mir das alles auch nicht glauben. Ich hab das komplette Testfeld hier, auch wenn die AMD halt noch eine ältere Generation ist. Aber der Xorg Modesetting Treiber ist ja der Gleiche. Mein Notebook hat Haswell Intel, mein iMac hier die AMD Radeon HD6770M und der PC meiner Freundin eine GTX 1060... 3 mal darfst du raten wo ich die meisten Desktop-Ärgernisse habe ;)

Dazu sei gesagt, dass ich auch verdammt viele Probleme auf dem Desktop habe, wenn ich die xf86-video-intel oder xf86-video-ati Treiber nutze. Gerade diese SNA-Beschleunigung von Intel ist ganz große Grütze. Generischer Modestting Treiber und alle Probleme sind weg. Kein Tearing im Multimonitor, keine VSync-Sorgen mehr in Videos, keine Rendering Artefekte in Chrome.


Btw. bist du doch sonst fleißig am (zurecht) auf Nvidia eindrischen bez. Linux. ;)

Ich kann auch nur über das berichten was ich hier sehe und was nunmal einfache Fakten sind. Und das NVidia vom Kernel bis hoch zu Xorg einen komplett eigenen Stack fährt ist keine Neuheit und auch kein Geheimnis. Da schieb ich die Probleme die man mit NVidia hat aber nicht auf Xorg oder GNOME, sondern auf NVidia. Gerade weil ich mit Intel und AMD dort so gar keine Probleme habe.

Und auf dem NVidia PC läuft auch Windows... und mir kann auch da keiner erzählen, dass dort alles perfekt ist ;)

The_Invisible
2017-01-07, 17:34:05
RHLE und CentOS sind auch Server-Distributionen ;) Die Desktop-Variante ist Fedora.

https://www.redhat.com/apps/store/desktop/

Fedora? Was ein paar Monate Support hat und man dann updaten muss wo es wieder Major-Paketupdates geben kann? Das ist nur eine Testingplattform für RedHat. Da kann man ja gleich ArchLinux oder Gentoo nehmen.

Seid doch nicht so sturköpfig, wenn man da keine Ahnung hat fliegt man nach einiger Zeit einfach auf die Schnauze. Selbst ein DAU Ubuntu ist da nicht 100% sicher. Windows fühlt sich ja auch nur so stabil an weil da einfach statisch Software installiert wird und sich da nie ändert bzw. die Software selbst die Upgrades durchführt.

aufkrawall
2017-01-07, 17:43:04
Wie gesagt, nur weil dir GNOME nicht gefällt, macht es ein Teil davon nicht schlecht ;)

Selbst wenn ich Gnome als geschlossenes Bedienkonzept mögen würde, wären solche Kleinigkeiten immer noch störend.
Und dann solche be******** Einschränkungen, wie dass man im Nautilus nicht einfach mal eben dauerhaft die Adressleiste einblenden kann. wtf soll der Mist? :freak:


Und auf dem NVidia PC läuft auch Windows... und mir kann auch da keiner erzählen, dass dort alles perfekt ist ;)
Seit Windows 8 gibts am Kompositor nichts mehr zu meckern, oder was funktioniert nicht zuverlässig?

Edit: Btw: Ist jetzt auch nicht sonderlich kompliziert, einen anderen Compositor mit KDE zu verwenden, und trotzdem funktioniert natürlich das ganze Fenster-Management mit KWin weiterhin.

The_Invisible
2017-01-07, 17:49:27
Klar, ändert aber nichts daran, dass die Software überwiegend von Red Hat kommt. NetworkManager, systemd, PulseAudio, GNOME, etc. sind alles Dinge, die bei Red Hat entstanden sind oder mindestens stark beeinflusst werden.


NetworkManager unter Ubuntu haben wir mal vergeblich versucht einen LACP Trunk einzurichten, unter CentOS/RHEL ging es sofort. Ka wie der Status jetzt ist, aber zeigt halt das bei den ganzen "Ports" leicht Glitches für nicht so verbreitete Funktionen auftreten können.

Wenn zumindest mal die ganzen Schnittstellen/APIs standardisiert wären, wäre es schon mal ein großer Schritt. So nimmt halt Ubuntu oft Debian Pakete und hackt irgendwelche Patches rein. Da kann es halt leicht passieren das es zu anderer Upstream-Software nicht mehr so kompatibel ist.

Selbst der "ip"-Output hatte sich mal geändert wodurch der VPN-Client nicht mehr ging. Ach, was ich da alles erzählen könnte. ;D

aufkrawall
2017-01-07, 17:51:17
Was soll an Ubuntu eigentlich so anwenderfreundlich sein?
Die verteilte Software hat oft Staub angesetzt, und man darf ständig dieses unübersichtliche Launchpad mit Copy&Paste abgrasen. Find das im Vergleich zu OpenSuse ziemlich lächerlich.

DekWizArt
2017-01-07, 18:04:21
Was meinst Du mit verteilte Software?

Ganon
2017-01-07, 18:07:16
Fedora? Was ein paar Monate Support hat und man dann updaten muss wo es wieder Major-Paketupdates geben kann? Das ist nur eine Testingplattform für RedHat. Da kann man ja gleich ArchLinux oder Gentoo nehmen.

Fedora hat so ziemlich den gleichen Support-Zeitraum wie OS X. Basierend auf den Nachfolgern.


Windows fühlt sich ja auch nur so stabil an weil da einfach statisch Software installiert wird und sich da nie ändert bzw. die Software selbst die Upgrades durchführt.

Klar ist "einfach keine Updates machen" eine stabile Lösung. Aber einfach keine sinnvolle.

Seit Windows 8 gibts am Kompositor nichts mehr zu meckern, oder was funktioniert nicht zuverlässig?

Unabhängig vom Compositor oder Grafikausgabe jetzt. Also z.B. wenn irgend ein Nvidia Dienst nicht so fix hochkommt und man erst mal eine Minute vor einem schwarzen Bildschirm steht... oder wenn Windows meint "du kriegst jetzt ein Neustart wegen Update in 20min", dabei meine Fullscreen-Anwendung minimiert... solche Späße eben... hatten wir alles schon hier ;)

Zum Compositor her hab ich sowohl an GNOME als auch an Windows nicht viel zu meckern. Windows hat ganz andere Probleme in dem Bereich, gerade was HiDPI betrifft.

Wenn zumindest mal die ganzen Schnittstellen/APIs standardisiert wären, wäre es schon mal ein großer Schritt.

Was genau willst du da "standardisieren"? In der Regel wird darauf geachtet, dass man nicht dauernd APIs kaputt macht. Aber was kann RedHat dafür, wenn Ubuntu deren NetworkManager kaputtmacht und ausliefert? Darum sag ich ja, man sollte, wenn man schon meckern will, erst mal Distributionen nutzen, welche die Pakete soweit es geht im Vanilla Zustand ausliefert.

aufkrawall
2017-01-07, 18:07:42
Was meinst Du mit verteilte Software?
Schau dir mal an, von wann die mpv-Version ist, dir er einem in diesem Schrotthaufen von "Software-Center" andrehen will.

aufkrawall
2017-01-07, 18:14:37
Also z.B. wenn irgend ein Nvidia Dienst nicht so fix hochkommt und man erst mal eine Minute vor einem schwarzen Bildschirm steht

Es braucht keinen Nvidia-Dienst, damit es ein Bild gibt. Klingt einfach nach kaputt, das zählt nicht. ;)


... oder wenn Windows meint "du kriegst jetzt ein Neustart wegen Update in 20min", dabei meine Fullscreen-Anwendung minimiert... solche Späße eben... hatten wir alles schon hier ;)

Ich bin kein Freund der Windows 10-Bevormundung, aber seit Redstone kannst du "großzügige" 12 Stunden des Tages festlegen, während denen du mit so etwas nicht belästigst wirst.
Oder man packt halt die Keule aus und installiert/aktiviert sich eine Enterprise-Version oder schaltet bis auf den Patchday den WU-Dienst ab. Lösungen gibts, nur vielleicht nicht besonders elegante.
So einen Shice gabs mit Win 8.1 übrigens noch nicht.


Windows hat ganz andere Probleme in dem Bereich, gerade was HiDPI betrifft.

Nach dem, was ich gelesen hab, hat Windows hier eigentlich gar keine Probleme mehr, sondern nur die Anwendungen. Bei Windows läuft eben nicht alles mit GTK oder QT, so gesehen ist die Anwendungsituation hier sogar noch chaotischer als bei Linux. Es hindert aber keinen Entwickler etwas daran, seine Hausaufgaben zu machen.

Ganon
2017-01-07, 18:23:27
Es braucht keinen Nvidia-Dienst, damit es ein Bild gibt. Klingt einfach nach kaputt, das zählt nicht. ;)

Ich glaube es war der NVidia Streaming Dienst der etwas "hing"... Bild war schwarz derweil ;) Wie damals auch schon berichtet.... plain Windows 10 und einfach Standard NVidia Treiber drauf. Ich vermute der Streaming-Client hat sich irgendwo einklinken wollen. Nutze den aber auch nicht, aber ich sehe auch keine Option den irgendwo abzuschalten.

Und nein, in der Dienstverwaltung fummele ich nicht rum. Windows 10 ist mir schon wackelig genug.

So einen Shice gabs mit Win 8.1 übrigens noch nicht.

Joahr, ich sagte ja... ich kann nur von dem berichten was ich hier sehe. Und auch der Support-Zeitraum von Windows 8 ist irgendwann zu Ende. Und wenn als Argument "du kannst das in Windows mit Tools, Tricks und Co. umgehen" für Windows zulässig ist, dann ist es auch für Linux zulässig ;)

Nach dem, was ich gelesen hab, hat Windows hier eigentlich gar keine Probleme mehr, sondern nur die Anwendungen. Bei Windows läuft eben nicht alles mit GTK oder QT, so gesehen ist die Anwendungsituation hier sogar noch chaotischer als bei Linux. Es hindert aber keinen Entwickler etwas daran, seine Hausaufgaben zu machen.

Probleme die Canonical verursacht werden hier ja auch gerne als "Linux-Probleme" hingestellt, nech? ;)

aufkrawall
2017-01-07, 18:29:57
Ich glaube es war der NVidia Streaming Dienst der etwas "hing"... Bild war schwarz derweil ;) Wie damals auch schon berichtet.... plain Windows 10 und einfach Standard NVidia Treiber drauf. Ich vermute der Streaming-Client hat sich irgendwo einklinken wollen. Nutze den aber auch nicht, aber ich sehe auch keine Option den irgendwo abzuschalten.

Der Dienst kommt mit GeForce Experience, das kann man während der Treiber-Installation abwählen. Ist eh DAU-Bloatware.


Und nein, in der Dienstverwaltung fummele ich nicht rum. Windows 10 ist mir schon wackelig genug.

3rd Party-Dienste abschalten ist unkritisch. Ich lösch/deaktivier solche missliebigen Diensten einfach mit mit dem Tool Autoruns.


Probleme die Canonical verursacht werden hier ja auch gerne als "Linux-Probleme" hingestellt, nech? ;)
Aber nicht von mir.

Ganon
2017-01-07, 18:34:58
Der Dienst kommt mit GeForce Experience, das kann man während der Treiber-Installation abwählen. Ist eh DAU-Bloatware.

Und dann muss ich Treiber-Updates manuell machen? So mit "auf Webseite gehen und mich durchklicken und exe runterladen und das ausführen"? ;)

Aber nicht von mir.

Ja, aber ist ja eine gemeinschaftliche Diskussion hier.

aufkrawall
2017-01-07, 18:57:37
Und dann muss ich Treiber-Updates manuell machen? So mit "auf Webseite gehen und mich durchklicken und exe runterladen und das ausführen"? ;)

Das ist ein völlig unwichtiges Detail. Sei lieber froh, dass die Installer-Routine was taugt und du bei NV so gut wie nie mit Tools wie DDU rumhantieren musst.
Dass man die neuste Treiberversion wirklich braucht, ist eh extrem selten.

Ganon
2017-01-07, 19:02:56
Dass man die neuste Treiberversion wirklich braucht, ist eh extrem selten.

Ich teste unter Windows relativ häufig RetroArch mit Vulkan Backend und den Vulkan Cores für N64 und Playstation, ebenso Dolphin mit Vulkan-Backend. Da Vulkan auch bei Nvidia eine ziemliche Baustelle ist, ist dort der aktuellste Treiber immer recht sinnvoll.

aufkrawall
2017-01-07, 19:06:01
Sich durch die NV-Seite "durchzuklicken" dauert wenige Sekunden und bei übersichtlichen Download-Portalen wie dem von CB bekommst du eh die richtige Version direkt auf dem Silberteller präsentiert.
Und warum benutzt du für Vulkan Nvidia? Der Müll-Treiber friert hier unter Linux bei Talos Principle immer noch sporadisch das System komplett ein. :freak:

Ganon
2017-01-07, 19:16:15
Sich durch die NV-Seite "durchzuklicken" dauert wenige Sekunden und bei übersichtlichen Download-Portalen wie dem von CB bekommst du eh die richtige Version direkt auf dem Silberteller präsentiert.

Das mag ja alles sein, trotzdem muss ich dann immer selbst aktiv werden. Du weißt, ich bin sonst Linux-Nutzer und kriege vollständige System-Updates mit einem kleinen Befehl ;) Sowas macht faul.

Und warum benutzt du für Vulkan Nvidia

Ich nutze auch meine Intel Haswell CPU für einige Vulkan Tests. Aber dort ist ziemlich klar was implementiert ist und was nicht (https://cgit.freedesktop.org/mesa/mesa/tree/src/intel/vulkan/TODO) und es fehlen eben noch einige Sachen. Ganz davon ab, dass die Intel iGPU mit einigen Dolphin-Sachen oder RetroArch Shadern überfordert ist.

PHuV
2017-01-07, 23:54:15
Sehr langsam, aber zuverlässig: SSH mit X-Forwarding
Das reicht ja nicht, Du brauchst ja noch etwas, um X11 darzustellen. ;)

BBig
2017-01-07, 23:56:33
Das die Entwicklung von Linux stark von RedHat geprägt wird, kann keiner leugnen.
Warum auch, RedHat verdient damit sehr gutes (http://www.zdnet.com/article/red-hat-becomes-first-2b-open-source-company/) Geld.

Und übertreiben sollte man es auch nicht:
Also wie gesagt... der komplette Linux-Stack vom Kernel bis zu GTK hoch wird je nach Ebene entweder komplett oder teilweise von RedHat entwickelt. Und gerade NVidia User sollten das nicht vergessen, denn GNOME ist der Desktop, der Wayland auf NVidia ermöglicht ;)
Von https://www.linux.com/blog/top-10-developers-and-companies-contributing-linux-kernel-2015-2016 :
Ca. 12% der Kernel-Changes und damit Platz 1 ist Intel!
dann kommt mit 8% RedHat, was immer noch viel ist, aber kontrolliert?

Zu Gnome und GTK kann ich nichts sagen, denke aber dass du da schon recht hast, und RedHat Hauptsponsor ist.

So nebenbei, nvidia und Wayland ist ein Thema für sich:
https://www.phoronix.com/scan.php?page=news_item&px=NVIDIA-Wayland-Design-XDC

Aber die Distribution Fedora empfinde ich als peinlich für RedHat.
Gerade im Hinblick auf: Red Hat becomes first $2b open-source company (http://www.zdnet.com/article/red-hat-becomes-first-2b-open-source-company/)

6 Monate Release Cycle? Wow, sowas nennen sie auch noch Workstation? Und für diese "Workstation" Treiber zu bekommen, ist abenteuerlich! 3rd Party Repos, die dringen nötig werden, brauchen teilweise über 1. Monat, bis sie zur neuen Version aufgeschlossen haben. Naja, kein Problem, dann kann man seine "Workstation" ja noch glatte 5 Monate aktuell haben, :freak:

Fedora hat so ziemlich den gleichen Support-Zeitraum wie OS X. Basierend auf den Nachfolgern.

Ob man das so vergleich kann, bezweifel ich aber mal stark.

Ich habe keine Apple-Geräte, aber so wie man das aus den Bekanntenkreis mitbekommt, funktionieren die Upgrades gut.

Schon mal ein Upgrade unter Fedora versucht? Das nenne ich Elend.

===

Das Redhat Big im Buisness finde ich toll, aber doch wohl eher mit Support. Sprich, wenn externer Support gebucht wird, steht RHEL ganz oben.
Aber große Firmen, die ihre eigene IT haben, setzen immer mehr auf Ubuntu, gerade auch weil ein LTS-Release angeboten wird. Ich glaube kaum, dass sie auch nur eine Sekunde über Fedora Workstation nachgedacht haben.

Und in der Cloud? Da ist Ubuntu schon so lange #1.
Wenn du einen Server einrichtest, welches OS würdest du wohl nehmen? Eventuell noch CentOS, aber wenn du einigermaßen neue Software haben magst, dann nimmst du doch wohl Ubuntu Server.

lumines
2017-01-08, 00:16:23
Schon mal ein Upgrade unter Fedora versucht? Das nenne ich Elend.

Das war bisher auch das größte Problem (neben dem Einbinden von proprietären Treibern), aber mittlerweile soll das sehr gut gehen. Ich habe 2008(?) oder so längere Zeit Fedora benutzt und konnte mich jetzt nicht beklagen. Die Repos sind natürlich kleiner als bei Ubuntu, aber dafür sehr, sehr gut gepflegt. Das weiß ich mittlerweile mehr zu schätzen als damals.

The_Invisible
2017-01-08, 09:21:22
Was genau willst du da "standardisieren"? In der Regel wird darauf geachtet, dass man nicht dauernd APIs kaputt macht. Aber was kann RedHat dafür, wenn Ubuntu deren NetworkManager kaputtmacht und ausliefert? Darum sag ich ja, man sollte, wenn man schon meckern will, erst mal Distributionen nutzen, welche die Pakete soweit es geht im Vanilla Zustand ausliefert.

Habe ich ja geschrieben, unter RHEL/CentOS ging es ja problemlos.

Wo wir wieder beim Ausgangspunkt wären RHEL/CentOS für den Desktop einsetzen zu wollen. Das würde vor allem aufkrawall "gefallen", wenn ihm schon das Ubuntu-Repo veraltet vorkommt :D

Das Problem ist, für die meisten Programme gibts ja gar keine APIs sondern es wird einfach der Code gepatcht oder der Output von einem Dritt-Programm geparst. Beides kann sehr schnell "aua" verursachen.

aufkrawall
2017-01-08, 19:19:00
Ich hab eine Lösung gefunden, wie ich auf der GTX 1070 brauchbares Compositing nutzen kann:
-KWin/Mutter etc. deaktivieren
-Compton installieren
-für Eye Candy die Einstellungen von hier (http://duncanlock.net/blog/2013/06/07/how-to-switch-to-compton-for-beautiful-tear-free-compositing-in-xfce/) nehmen, aber
backend = "xrender";
vsync = "none";
setzen.
-dauerhaft Vsync via Nvidia-Treiber erzwingen wie hier (http://www.thelinuxrain.com/articles/got-tearing-with-proprietary-nvidia-try-this) beschrieben (getestet mit ForceFullCompositionPipeline, dürfte aber egal sein).

Fenster verschieben sich meist flüssig (nicht perfekt, aber immerhin), es gibt kein Tearing und keine Grafikfehler und die Performance innerhalb der Fenster wird bei stehenden Fenstern nicht beeinträchtigt.
Schätze, ich poste das mal auf Reddit. Dürfte jedem Pascal-Besitzer etwas bringen.

DekWizArt
2017-01-09, 08:43:58
Ich habe am WE zu Hause am PC mich mal wieder an openSUSE probiert, erst mit GNome und später mit Plasma 5.
Also läuft gut, der Installer von Suse ist schon wirklich gut und GDM ist wirklich verdammt schnell. Allerdings, wo ich früher Gnome3 wirklich gern mochte, ist es mir mittlerweile echt zu.. keine Ahnung wie ich das sagen soll, alles zu groß und unübersichtlich.
Hab dann doch mal Plasma 5 ausprobiert, welches langsamer ist als gdm, allerdings gefällt das wirklich gut.
Mal sehen, hab auf dem xps 13 ja noch Ubuntu mit Unity, welches ich als Oberfläche zum Arbeiten sehr angenehm finde. Da kann man dann schon etwas vergleichen.

Was ich bei Suse wirklich klasse finde, sowohl unter Gnome, als auch Plasma, ist die Schlüsselverwaltung. Wo es bei Ubuntu mit Thunderbird und Enigmail immer unhandlich war mit PGP Schlüsseln zu arbeiten (man hat es trotzdem getan), ist es unter Suse ein Kinderspiel und wirklich klasse im System verankert, richtig toll.


Fedora ist übrigens keine Option, wenn rpm dann Suse. Mit Fedora bin ich nie warm geworden.

BBig
2017-01-09, 12:35:35
Das war bisher auch das größte Problem (neben dem Einbinden von proprietären Treibern), aber mittlerweile soll das sehr gut gehen...

Ich habe Fedora nur noch sporadisch in der Hand.
Für mich wäre es nie eine Option, wie oben geschrieben:

6 Monate Release Cycle mit "nicht gutem" Upgrade-Mechanismus.
Entweder LTS oder gleich Arch. Ich sehe die Nische für Fedora einfach nicht.

Ich weiß, dass Fedora ein neues "Vorgehen" zum Upgraden hat: Über das Software-Center / dnf system-upgrade. Aber sobald 3rd Party Repos benutzt wurden, wo man ja nicht drum herum kommt, schaut es einfach nicht gut aus.

9rdSiS5Deds

Ganon
2017-01-09, 13:36:15
Naja, ist jetzt aber auch nicht so, als wenn Ubuntu LTS Upgrades total problemfrei wären. Ich hatte genug Ubuntu Notebooks vor mir, die nicht mehr hochfuhren nach dem Upgrade, oder das Upgrade gar nicht erst ging. Aber klar, gerade im kommerziellen Bereich verschiebt man diese Probleme einfach auf morgen. Der Support für Ubuntu 12 LTS läuft im April diesen Jahres aus. Dann geht der Spaß erst richtig los, denn nicht wenig Zeug basiert darauf (z.B. auch die Steam Runtime).

Ich persönlich verstehe aber im Privatgebrauch die Upgrade oder Rolling-Release Angst nicht. Nach meiner Erfahrung sind die Probleme die man dort bekommt hauptsächlich durch die neue Programmversion bedingt, weil diese etwas geändert hat. Da löst aber LTS nicht das Problem, sondern verschiebt es nur auf später. Ist ja nicht so, als wenn in "kritischen Zeiten" dir ArchLinux ein Upgrade samt Reboot reinprügelt. Das macht nur Windows.

Die Alternative LTS fixt dir keine Bugs, sondern nur Sicherheitslücken und auch das nicht mal vollständig (Stichwort WebKitGTK+ und Ubuntu) und drückt dir dann beim Major-Upgrade alle Versionsprobleme auf einmal rein.

Ich mein, ich hab hier vielleicht 1 oder 2 mal im Jahr etwas, was man "Problem" nennen könnte, weil die neue Stable-Version von der Anwendung doch nicht so stabil war. Aber wegen der Kleinigkeiten das ganze System einfrieren? Und dann noch in/halboffizielle Repos einbinden, damit ich mal einen aktuellen Grafiktreiber kriege?

ArchLinux pullt ja nun auch nicht den git master branch und liefert den aus. Es steht ja weiterhin jedem frei die Distribution seiner Wahl zu nutzen, aber man sollte Rolling-Release nicht alleine nur wegen der Angst vor Upgrades ausschließen. Wenigstens probieren kann man es ja mal ;) Und dann vielleicht differenzieren, ob das Problem nun wirklich ein Problem der Distribution war, oder ob der Entwickler der Anwendung einfach nur Tätigkeit seiner Nutzer fordert, mal als Beispiel für das genannte Upgrade von Eclipse 3 -> 4.

aufkrawall
2017-01-09, 15:11:53
Nutze seit ein paar Wochen Tumbleweed und das läuft trotz ständiger Kernel-, X- und Grub-Updates bisher völlig problemfrei.

DekWizArt
2017-01-09, 21:05:47
Nutze seit ein paar Wochen Tumbleweed und das läuft trotz ständiger Kernel-, X- und Grub-Updates bisher völlig problemfrei.

Für zu Hause ist das auch völlig OK, sehe ich oft ähnlich.
Aber nicht in der Firma. ;)

aufkrawall
2017-01-09, 21:45:31
Da gibts ja Leap mit 1,5 Jahren Support. Sollte wegen Wicked auch für Server interessant sein.
Die Linux-Fraktion hat hier an OpenSuse auch noch kein schlechtes Haar gelassen, sicherlich ein gutes Zeichen. :D

DekWizArt
2017-01-10, 07:56:43
Wie geschrieben teste ich Leap derzeit zu Hause auf dem Desktop PC.

Bin mir noch unsicher ob ich opensuse an meinen Laptop lassen soll, bin mir unsicher wegen der Unterstützung, insbesonders beim Displaylink mit 2 extra Monitoren. Das Ding zickt mit Ubuntu schon teilweise und Ubuntu war auf der Kiste drauf bei Kauf. ;)

Gast
2017-01-10, 16:34:29
Und dann vielleicht differenzieren, ob das Problem nun wirklich ein Problem der Distribution war, oder ob der Entwickler der Anwendung einfach nur Tätigkeit seiner Nutzer fordert, mal als Beispiel für das genannte Upgrade von Eclipse 3 -> 4.
Das ist ja letztlich unwichtig. Wenn ich die Arbeit gerade nicht angehen kann oder will und mir die Distribution dann aber sagt, dass ich so lange wie ich diese eine Komponente nicht aktualisiere, keine Sicherheitsupdates für das restliche System bekomme, so wird es automatisch zu einem Problem der Distribution.
Dieses Konzept der starren Kopplung aller Binaries an eine einzige zentrale Instanz gibt es unter Windows einfach nicht und imho ist das einer der größten Vorteile für alle Privatanwender, die etwas mehr machen als nur surfen und den obligatorischen Brief schreiben. Ersteres machen vermutlich auch schon gar nicht so wenige per Tablet, da hat der PC seine besten Zeiten schon hinter sich.

Ganon
2017-01-10, 22:40:44
Das ist ja letztlich unwichtig. Wenn ich die Arbeit gerade nicht angehen kann oder will und mir die Distribution dann aber sagt, dass ich so lange wie ich diese eine Komponente nicht aktualisiere, keine Sicherheitsupdates für das restliche System bekomme, so wird es automatisch zu einem Problem der Distribution.

Jede Distribution, die ich in den Fingern hatte, kann Pakete von Updates ausschließen. Nur weil du gerade das Eclipse-Update nicht machen willst, hindert es dich nicht daran, alles andere zu aktualisieren. Wie in Windows Eclipse einfach runterladen, entpacken und starten ist auch in Linux problemlos möglich, also Vorteile an Windows sehe ich hier nicht.

Wie ich schon sagte, man muss jetzt auch nicht so tun als zerlegt dir jedes Update einer Anwendung gleich alles. Sowas ist eher die Ausnahme als eine Regel. Meine ArchLinux Installation ist jetzt schon mehrere Jahre alt. Die hat einiges mitgemacht und läuft weiterhin sauber.

DekWizArt
2017-01-11, 15:02:13
Ist es eigentlich möglich aus einer Suse Leap eine Tumbleweed zu machen? Denke mal ändern der Repositories, oder?

Gast
2017-01-12, 11:20:13
Jede Distribution, die ich in den Fingern hatte, kann Pakete von Updates ausschließen.
Schon das von Dir genutzte Arch Linux unterstützt das danz offiziell nicht. https://wiki.archlinux.org/index.php/System_maintenance#Partial_upgrades_are_unsupported

DekWizArt
2017-01-12, 12:05:00
Nach einigem hin und her doch wieder Standard Ubuntu. Schlicht und schnell, ohne überflüssige Bedienkonzept. Mittlerer hat sich mein Haupteingabegerät eh sehr von Maus zu Tastatur verschoben. Mehr im Terminal als sonst wo..Netzwerk krams halt. ;-)

Ganon
2017-01-12, 12:31:18
Schon das von Dir genutzte Arch Linux unterstützt das danz offiziell nicht. https://wiki.archlinux.org/index.php/System_maintenance#Partial_upgrades_are_unsupported

Sie bieten keinen Support wenn du es tust, d.h. aber nicht, dass es nicht offiziell geht...

# Pacman won't upgrade packages listed in IgnorePkg and members of IgnoreGroup
#IgnorePkg =
#IgnoreGroup =

The_Invisible
2017-01-12, 21:16:58
Jede Distribution, die ich in den Fingern hatte, kann Pakete von Updates ausschließen. Nur weil du gerade das Eclipse-Update nicht machen willst, hindert es dich nicht daran, alles andere zu aktualisieren.

Ja und dann gibts irgendein lib Update und der Paketmanager spielt verrückt mit den Abhängigkeiten, alles schon gehabt. :D

Ganon
2017-01-12, 22:26:05
Ja und dann gibts irgendein lib Update und der Paketmanager spielt verrückt mit den Abhängigkeiten, alles schon gehabt. :D

Klar, ein Dauerzustand sollte es nicht sein ;) Für Dauerzustände gilt der Windows weg -> Manuell installieren.