These: Linux ist kein Produkt – und genau das ist sein Problem

  • Hallo

    Könnte glatt ein Titel von kim88 sein :D Aber ich meine das jetzt tatsächlich nicht provokant. Ich denke über das Thema schon länger nach und ich finde, wir machen es uns ein wenig einfach, wenn wir pauschal sagen "Microsoft nutzt seine Marktmacht und Windows ist vorinstalliert". Lasst uns in diesem Topic tatsächlich mal die Ursachen ergründen, ohne einfach nur Microsoft den Schwarzen Peter zuzuschieben. Das wäre mir zu einfach.

    Meine Vermutung ist, dass der Open Source Gedanke heutzutage vielleicht einfach an seine Grenzen stößt. Ist es nicht auch möglich, dass die dezentrale, "community-driven" Struktur von Linux langfristig sogar hinderlich ist? Warum kann sich keine Distro als echtes Mainstream-System etablieren? Das kann doch nicht einfach nur daran liegen, dass Windows auf gefühlt 99% aller Laptops und Fertig-PC vorinstalliert ist.

    Ein paar Beobachtungen, die mich zum Nachdenken gebracht haben - insbesondere auch nach Gesprächen mit z.B. kim88 :

    Es gibt unzählige Distributionen, aber keinen klaren Standard. Während Windows (und macOS) zentral geführt werden, ist die Linux-Welt fragmentiert. Jeder macht "sein Ding". Das ist einerseits Vielfalt, aber andererseits Verwirrung – gerade für Neulinge. Es fehlt auch an bestimmten API, die es unter Windows einfacher machen. Ich kann kein File-Streaming nutzen, obwohl Dropbox, Google Drive, Mega und selbst Nextcloud das eigentlich anbieten. Ich kann kein server-side-copy im Dateimanager verwenden, was bei Windows Standard ist, usw

    Viele Projekte sterben irgendwann oder werden schlecht gepflegt. Maintainer sind überlastet, bekommen kaum Geld, und oft hängt ein ganzes Tool von 1–2 Personen ab. Was passiert, wenn diese Leute keine Lust mehr haben?

    Es fehlt irgendwie eine echte Produktstrategie. Es gibt keine zentrale Stelle, die sich fragt: Was wollen wir als „Linux-Desktop“ eigentlich erreichen? Was ist unsere Zielgruppe? Welche Features müssen in 5 Jahren da sein? Ich frage mich auch.. ist diese Struktur überhaupt in der Lage, ein echtes Mainstream-Betriebssystem hervorzubringen – oder ist das gar nicht gewollt?

    Ich wünsche mir wirklich, dass wir in diesem Thema auch mal kritisch zu unser eigenen Bubble sachlich diskutieren. Ohne Schlechtmachen. Wirklich einfach mal sachlich diskutieren, wo vielleicht die Probleme von Linux und die Schattenseiten von Open Source und Software-Community liegen. Ich finde das Thema zu spannend, um es als Flamewar verkommen zu lassen.

    Ich bin sehr gespannt auf eure Meinungen.

    LG
    Boris


    7900X/RX7800XT/64GB | CapRover RS1000 | Yunohost VPS ARM64| unRAID @ N250 - Terramaster D4-320

  • Mit Linux als Desktop-Betriebssystem lässt sich - wie man am Beispiel Canonical (Ubuntu) sehen kann - kein Geld verdienen. Das ist der springende Punkt. Server und Wartungsverträge, da ist das Geld zu holen.

  • Ich denke, vieles hat mit einem tiefgreifenden Wandel zu tun, wie wir Software heute überhaupt noch „nutzen“. Open Source war ein Kind der 90er und frühen 2000er – damals war Software teuer, schwer zugänglich (Offline im Laden einkaufen gehen), und Open Source ein Befreiungsschlag: Keine Lizenzen, kein Vendor Lock-in, volle Kontrolle. Das funktionierte besonders gut in Bildung, Forschung und öffentlicher Verwaltung.

    Aber heute hat sich das Nutzungsmuster verändert. Niemand kauft mehr Software-CDs oder installiert Office-Suiten. Stattdessen loggt man sich in Cloud-Dienste ein – Google Docs, Notion, Microsoft 365. Man zahlt ein Abo oder nutzt kostenlose Services gegen Tracking und Datenfreigabe. Klassische Desktop-Software wirkt da fast schon altmodisch.

    Und hier liegt die Ironie: Diese modernen Cloud-Dienste basieren fast alle auf Open Source – Linux, PostgreSQL, Kubernetes, nginx usw. Sie sind das Rückgrat der digitalen Infrastruktur. Aber wie bei Wasserleitungen: Wenn alles funktioniert, fragt niemand, wer sie verlegt hat.

    Was den Linux-Desktop betrifft: Die Fragmentierung ist sicher ein Problem – aber nicht das einzige. Es fehlt oft an klarer Richtung, gemeinsamer Produktstrategie, konsistenter UX. Linux wirkt für viele wie ein Flickenteppich aus tollen Ideen, aber nicht wie ein einheitliches Produkt. Für technisch Versierte ist das ok – für Normalnutzer oft ein Hindernis. Niemand will Paketformate vergleichen oder herausfinden, ob Wayland stabil läuft.

    Ein grundlegendes Problem: Wir erwarten, dass Software gleichzeitig frei, kostenlos, konkurrenzfähig und ehrenamtlich getragen sein soll. Das ist in einer Welt voller SaaS-Plattformen kaum noch realistisch. Maintainer sind überlastet, Projekte versanden, Vertrauen leidet. Open Source wird zu oft als Bewegung verstanden – nicht als Produktentwicklung. Dabei braucht es gerade für Nutzerfreundlichkeit: Design, UX, Storytelling – und Marketing.

    Open Source ist nicht am Ende, aber seine Rolle hat sich verändert. Früher war es Produkt und Vision – heute ist es unsichtbare Infrastruktur. Nicht weniger wichtig, aber weniger greifbar.

    Wenn man das ändern will, braucht es ein radikales Umdenken – vor allem bei der Finanzierung. Gute Software kostet Geld, unabhängig von der Lizenz. UX-Studien, Prototypen, Tests – all das braucht Ressourcen, bevor überhaupt Code geschrieben wird. Apple investiert Millionen in solche Prozesse, bevor ein Redesign überhaupt sichtbar wird.

    Ein gutes Beispiel, wie es besser gehen kann, ist die WordPress-Community. WordPress ist Open Source (GPL), aber kommerziell extrem erfolgreich. Über 60 % aller CMS-Webseiten laufen damit. Warum?

    1. Einfache Installation – das berühmte „5-Minuten-Setup“ ist für viele der Einstieg.
    2. Plugin-Ökosystem – freie Basis, kommerzielle Pro-Features. Plugin-Entwickler verdienen Geld, obwohl ihre Software Open Source ist.

    Vielleicht wäre das auch ein Weg für Linux: Ein Basis-Dateimanager wie Nautilus, der das Nötigste kann – aber zusätzliche Features wie Zwei-Spalten-Ansicht, SSH-Zugriff oder integriertes Terminal gibt’s als günstiges Pro-Paket. Finanzierung wäre gesichert, und das Produkt würde sich verbessern.

    Zweiter Punkt: Koordination. Warum nicht eine „Linux Desktop Foundation“, ähnlich wie beim Linux Kernel (Linux Foundation)? Eine zentrale Stelle, die Ziele definiert, Gelder bündelt und Desktops zusammenbringt. Eine Vision: Wie sieht der Linux-Desktop in 5 Jahren aus? Was wollen wir erreichen? Und wie machen wir Marketing?

    Dritter Punkt: Design ernst nehmen. UX und UI sind kein Luxus, sondern Grundvoraussetzung, wenn man breite Nutzergruppen erreichen will.

    Ich weiss, das war jetzt viel Text (Sorry) – vielleicht zu viel. Aber das sind meine Gedanken dazu, und ich finde es auch wichtig, dass wir uns auch mal ehrlich mit den strukturellen Schwächen auseinandersetzen, statt immer nur mit dem Finger auf „die anderen“ zu zeigen.

  • Zweiter Punkt: Koordination. Warum nicht eine „Linux Desktop Foundation“, ähnlich wie beim Linux Kernel (Linux Foundation)? Eine zentrale Stelle, die Ziele definiert, Gelder bündelt und Desktops zusammenbringt. Eine Vision: Wie sieht der Linux-Desktop in 5 Jahren aus? Was wollen wir erreichen? Und wie machen wir Marketing?

    Das wäre ja eine mega Idee! Aber irgendwer muss die doch zuvor auch schon gehabt haben. Wieso wurde die nicht umgesetzt. Was spricht dagegen?


    7900X/RX7800XT/64GB | CapRover RS1000 | Yunohost VPS ARM64| unRAID @ N250 - Terramaster D4-320

  • Öh sowas haben wir ja schon irgendwie

    www

    Meine Projekte:

    GuideOS Logo PiGro-Aid Logo

    Auf Linux seit 2003 | Python-Jünger| Wir reden ja hier über Computer, das sind Arbeitsgeräte und keine Religion.

    --

    Wir sind hier alle Trekkis, Star Wars müffelt!

  • Ich möchte hier meinen hochqualifizierten kommentar, der eins mit der KI ist, ergänzen .... :saint:

    External Content www.youtube.com
    Content embedded from external sources will not be displayed without your consent.
    Through the activation of external content, you agree that personal data may be transferred to third party platforms. We have provided more information on this in our privacy policy.

  • Viele der vielen Linux Distributionen sind mehr oder weniger "Schrott". Ich habe mittlerweile mindestens 40 davon installiert bzw. eine Installation versucht.

    Was die Enwickler verpfuschen bzw. nicht tatsächlich verbessern sind simple Dinge:

    1. Katastrofale Repository Ideologie
    2. Bei Upgrade auf eine aktuelle Version werden nur maginale optische Kinkerlitzen geändert
    anstatt sich auf wesentlich Verbesserungen zu konzentrien

    - einheitliche Installation und Deinstallation von Paketen (wie bei Windows)
    - simple aber ätzend, dass sich der Tastaturblock ständig abschaltet
    - Sperrung von Repositories wie Snap (z.B. in Debian/Ubuntu Distros)
    - nicht Einhaltung der konventionellen Ordnerstruktur bei Installationen u. Configordnern
    - der elitäre Distrogedanke bei vielen Distros, die es Anfängern nicht ermöglichen sich in
    einer Distro zurecht zu finden
    - all die Jubel-Youtube-Videos, die Umsteigern vorgaukeln, dasd der Umstieg auf eine Linux
    Distribution ja soooo einfach ist
    - das Windows immer noch die Nase weit vorn hat, was Benutzerfreundlichkeit angeht

    und noch einiges mehr.

    Sind so meine Gedanken, die mir bei meiner Arbeit mit Linux Distributionen so eingefallen sind.

    Absolut ätzend sind manche Kommentare, auch in meinem Kanal, die Windows als Windoof bezeichnen.

    Liebe Grüße sysform it (Hans-Josef)

  • Das wäre ja eine mega Idee! Aber irgendwer muss die doch zuvor auch schon gehabt haben. Wieso wurde die nicht umgesetzt. Was spricht dagegen?

    Öh sowas haben wir ja schon irgendwie

    www

    Das von Actionschnitzel erwähnte "freedesktop.org" gibt es und ist auch aktiv. Aber das ist halt nur "technisch" die Entwickeln halt simple Standards für Desktop. z.b. Wie und wo man Icons speichert, oder wie Benachrichtigungen funktionieren. Das ist aber alles (durchaus wichtige) "Hintergrundarbeit".
    Was die Organisation nicht ist - ist visonär. Sie fomrulieren keine Visionen (wo soll Linux irgendwann sein), die machen auch kein Marketing - die lösen einfach technische Probleme.

    Warum es sowas wie die "Linux Desktop Foundation" wie ich sie skiziiert habe nicht gibt hat sicherlich viele Gründe.

    Ich sehe da grob folgende:

    Es gibt ja nicht "den" Linux-Desktop, sondern viele: GNOME, KDE Plasma, Xfce, LXQt, usw. Alle haben eigene Philosophien, Ziele, Roadmaps, Communities und teils sogar konkurrierende technische Grundlagen (z. B. Wayland vs. X11, unterschiedliche Paketformate, eigene UI-Toolkits).
    Koordination bedeutet: Kompromisse – und dazu sind viele Projekte nicht bereit oder sehen keinen Sinn darin.

    Open-Source-Projekte sind oft bewusst unabhängig entstanden – aus Kritik an zentralen Strukturen oder als Abspaltung (Fork) anderer Projekte. Eine zentrale Instanz widerspricht diesem Dezentralitätsgedanken. Die Dev-Communities sind meist stolz auf ihre Eigenständigkeit – eine Foundation würde man als „Einmischung“ oder „Kontrolle von oben“ empfinden.

    Dann noch der Punkt der Macht Verteilung. Z.b. bei Gnome bestimmt weitgehend Red Hat den Kurs. Was Red Hat in Gnome will bekommen Sie auch andere können da nicht gross mithalten.

    Z.b. wollte Canonical Global Menüs in Gnome haben - aber alle Pull-Request und Code Änderungen mit dieser Idee wurden direkt abgelehnt (dies und ein paar andere Dinge) haben damals zur Entwicklung von Unity geführt. Sprich Red Hat hat grosse personelle und strukturelle Kontrolle über Gnome.
    Wenn man nun so eine Foundation baut, die Ziele und Wege definiert müsste das auch heissen, dass z.B. Red Hat (und andere Player) ihren Einfluss und Macht abgeben müssten. Und wer gibt schon freiwillig Macht ab?

  • Es gibt unzählige Distributionen, aber keinen klaren Standard. Während Windows (und macOS) zentral geführt werden, ist die Linux-Welt fragmentiert. Jeder macht "sein Ding". Das ist einerseits Vielfalt, aber andererseits Verwirrung – gerade für Neulinge. Es fehlt auch an bestimmten API, die es unter Windows einfacher machen. Ich kann kein File-Streaming nutzen, obwohl Dropbox, Google Drive, Mega und selbst Nextcloud das eigentlich anbieten. Ich kann kein server-side-copy im Dateimanager verwenden, was bei Windows Standard ist, usw

    Das verstehe ich nicht so ganz.
    Ich habe die Nextcloud-App. Die Synchronisiert automatisch die Änderungen die ich mache auf eine Cloud. Erstmal nur testweise auf eine 1GB Cloud aber es klappt tadellos.
    Dann habe ich mich für nemo die Nextcloud Erweiterung geladen und habe die Cloud jetzt als Netzwerklaufwerk drin.
    Gut läuft super langsam wegen webdav oder so. Kann man angeblich noch über rsync oder sowas hin kriegen. Hat letzte mal nur noch nicht geklappt. Muss ich mir nochmal angucken aber dann soll es darüber auch als Netzwerk eingebunden sein mit hoher Geschwindigkeit.
    Wo ist hier nun der Unterschied?

    Oder habe ich was komplett falsch verstanden?

  • Kellermorph es geht hier um das Filestreaming.

    Unter Mac, Windows, iOS und Android funktionieren diese Clients anders. Da kannst du z.b. 5 TTB Daten in der Cloud haben und nur eine 256GB SSD. In deinem Dateimanager werden dann trotzdem alle Ordner und Dateien aus der Cloud angezeigt. Wenn du etwas doppelt anklickst wird es direkt heruntergeladen.

    Somit hast du immer Zugriff auf alle Dateien ohne Kompromisse.

    Mit einem Rechtsklick auf Datei und Ordner kannst du auch sagen - "immer Offline" vorhalten.

    Unter Linux musst du vorab entscheiden welche Ordner du syncen willst, was halt umständlich ist und noch so wie vor 20 Jahren funktioniert.

    Wenn man da nur 1GB Speicher hat mag das nicht so tragisch sein. Aber ich habe in meiner privaten Cloud beinahe 2TB Speicherplatz belegt und in der beruflichen (dort ist Google Drive quasi unser Firmenserver) liegen um die 15-16 TB Daten - da ist es halt angenehm wenn man trotzdem durch alle ORdner Strukturen durchkommt ohne - das alles heruntergeladen werden muss.

  • Kellermorph es geht hier um das Filestreaming.

    Wenn man da nur 1GB Speicher hat mag das nicht so tragisch sein. Aber ich habe in meiner privaten Cloud beinahe 2TB Speicherplatz belegt und in der beruflichen (dort ist Google Drive quasi unser Firmenserver) liegen um die 15-16 TB Daten - da ist es halt angenehm wenn man trotzdem durch alle ORdner Strukturen durchkommt ohne - das alles heruntergeladen werden muss.

    Da will Microsoft halt Geld verdienen und hat dadurch die entsprechende Motivation, das gut umzusetzen. Diese Motivation fehlt bei Linux. Es wird ja öfter mal behauptet, dass nur freie Software gute Software wäre, da die Programmierer da engagierter wären. Ich denke, das ist so nicht richtig!

    Bei meiner Finanzsoftware habe ich mich bewusst für eine Bezahlsoftware(Moneyplex) entschieden! Ich glaube eine solche Software, von der der Unternehmer und die Mitarbeiter leben, wird wahrscheinlich länger am Markt sein. Voraussetzung ist natürlich, dass es sich um eine gut funktionierende Software handelt.

    Per aspera ad astra

    Hardware: MEG X570 UNIFY | AMD Ryzen 9 5950X | 64 GB Ram | AMD Radeon RX 6600 | Hauppauge Starburst 2

    System: MX Linux (Plasma) im Dualboot mit Win11

  • ach okay, klassisch wie ich es unter Teams kenne. Das wusste ich nicht.
    Vielen dank für die Klarstellung.

    Wie kann es denn, dass so ein "Standard" nicht entwickelt wird?
    Gibt's da kein Bedarf für, weil Linux mehr auf Servern läuft?

    Aber ja, bin ich bei euch. Das ist so dann echt scheiße.

  • Kellermorph Naja einerseits ist alles komplexer: Es gibt unter Linux gefühlt 100 unterschiedliche Datei-Manager. und min 2 wichtige (Nautilus und Dolphin). Dann gibt es hundert verschiedene Dateisystem (ext4, btrfs, xfs, etc) das heisst hier braucht es extrem viel Koordinationsarbeit um sowas zu bauen.

    Bedeutet Zeit und Geld - solange das niemand investiert wird da auch nichts kommen.

  • Wenn ich zwei Wünsche offen hätte...

    1. Einheitlicher Paketmanager und damit auch nur ein Paketformat. Dabei wäre es mir egal, ob apt, pacman, dnf oder zypper. Funktionieren tun die alle. Es nervt schon, wenn ich im Netz eine Anleitung für deb-Pakete finde und die dann irgendwie auf Archlinux umsetzen muss. Vielleicht wäre es dann auch möglich, Serverkapazitäten zu bündeln und damit auch einiges an Kosten einzusparen.
    2. Eine Festlegung auf QT oder GTK., dass unterschiedliche Design empfinde ich echt störend. Mag es, wenn es wie aus einem Guss aussieht.

    Bei den Desktops würden mich die jeweiligen Anteile bei den Installationen interessieren. Habe den Eindruck, dass zwei Drittel mit Plasma oder Gnome unterwegs sind, was ja schon fast eine Vereinheitlichung ist. ;)

  • Kellermorph Naja einerseits ist alles komplexer: Es gibt unter Linux gefühlt 100 unterschiedliche Datei-Manager. und min 2 wichtige (Nautilus und Dolphin). Dann gibt es hundert verschiedene Dateisystem (ext4, btrfs, xfs, etc) das heisst hier braucht es extrem viel Koordinationsarbeit um sowas zu bauen.

    Bedeutet Zeit und Geld - solange das niemand investiert wird da auch nichts kommen.

    ach okay ja das ergibt natürlich Sinn.
    Danke für die Aufklärung

  • Jetzt gebe ich als Windows-Umsteiger und Linux-Frischling auch mal meinen Senf dazu.

    Für mich war es Linux, egal welche Distri. Philosophie etc. sind mir völlig Wurst!

    Linux zeichnet sich aus durch "Benutzerunfreundlichkeit" (obwohl es schon viel besser wurde). Lösungen findet man kaum oder einige, die nur Freaks verstehen.

    Lösung wäre ein größerer Marktanteil, der vorhandene Probleme beheben würde. Wie statista.de zeigt, gehen die, die sich von MS abkehren, lieber zu Apple. Mit den hohen Hardware-Hürden von MS, werden jetzt viele MS den Rücken kehren.

    Wenn eine Distri mit Verbesserungen anfangen würde, würde es sich etablieren, statt dessen verfolgen die "Freaks" ihre Strategie.

  • Ich bin der Meinung, dass Linux immer mehr zum Produkt wird. Die kommerzialisierung schreitet immer mehr von voran und das nicht nur im Enterpraise Segment. X(

    Man sieht es doch am Beispiel von SteamOS was immer mehr Aufmerksamkeit bekommt. Das viele Geld was durch Valve an Arch Linux fließt um Steam langfristig umabhängigkeit von Microsoft zu machen. Man kann es als finanziellen Segen für Arch sehen oder als Zerstörung der unabhängigkeit die Arch ausmacht. Am Ende werden wir User trotzdem die Gewinner sein, da durch solche Kooperationen Linux immer mehr aus seinem Schatten tritt und in der Breiten Masse akzeptanz findet. :saint:

    Das Problem was ich daran sehe ist, dass Linux langfristig viel seiner Seele einbüßen wird. Noch ist fast alles Opensource und free to use aber je mehr die großen Player Ihre Finger im Spiel haben, desto weniger wird von freedom und Opensource übrig bleiben. ;(

    Weil nur mit Linux als Produkt sich Geld verdienen lässt. Es wird immer die kleine "Freedom Linux Rebellion" geben aber langfristig sehe ich viele Paywalls, Abos und paid Software auch im privaten Linux Bereich. :(

    “Microsoft ist nicht schlecht, sie machen nur ein beschissenes Betriebssystem.” - Linus Torvalds

    Meine Setups:

    Custom PC: Intel Core i5-12400, 32GB Ram, 5 TB SSD, Geforce 1650 - Arch Linux KDE

    Laptop: Thinkpad X13- Intel i5-10310U, 16GB Ram, 512 GB SSD - Arch Linux Hyperland

    Server: Thinkcentre M910t - Intel Core i5-6500, 24GB Ram, 512 GB SSD, 16TB HDD - MxLinux xfce/CasaOS

  • ja eine Linuxditro ist ein Produkt. Eine Ansammlung von vielen Einzelteilen zu einem gebrauchsfähigen Ganzen. Man könnte sagen das ein Release die Präsentation des Produktes ist.

    Der Unterschied zu Windows ist die Monetarisierung und Vermarktung. Was steht an Finanzmitteln zur Verfügung um das Produkt auf dem Markt zu plazieren. MS steckt sehr viel Kapital in die Vermarktung und pflegt Kooperationen. So wurde MS groß. Linuxdistros werden eigentlich kaum vermarktet und Kooperationen sind selten. Aleine im Enterpreisbereich wird Linux Dienstleistung monetarisiert.

    Ich denke jedoch das sich das derzeit im Wandel befindet. Öfentliche Einrichtungen, ein ganzen Bundesland setzt auf OpenSource. KDUs setzen vermehrt auf Linix und OpenSource und ganz wichtig sind die Hybridslösungen.

    Was schon längst im Wandel ist ist die Selbstverständlichkeit von Betriebssystemen. Kaum noch jemand interessiert sich noch dafür wie und warum etwas funktioniert. Es muss einfach funktionieren. Betriebsysteme und Software sind ein Werkzeug was sie auch schon immer sein sollten. Unter Linux war das aber immer noch mit Hobbybastelei verbunden und im Enterprise Bereich spielte es keine Rolle, da schon immer sich eine IT-Abteilung, oder Dienstleister sich darum kümmert.

    Nun funktiuonieren die Werkzeuge aus der Tüte. Es gibt auch mit Linux reine Anwender und immer weniger Hobbyisten. Hinzu kommt das der Trend zu Mobilgeräten läuft und weg vom klassischen Desktop/Laptop PC.

    #FurZiPuPS

  • zum Ausgangsfrage:

    Linux ist ein Betriebssystemkern und dient zugehörigen, technischen Zwecken. Linux muss darüber hinaus ersteinmal gar nichts!

    Weder "ein Mainsteam-Betriebssystem für eine grpße Anhängerschaft bereitstellen", noch "unsere Freiheit verteidigen", noch "die Wirtschaft stärken", usw. Sobald wir über solche Punkte sprechen , haben wir die technische Ebene bereits verlassen und bewegen uns in gesellschaftlichen Gedankensphären. Entsprechende Zielstellungen reflektieren IMMER auch unsere Anschauungen und Wünsche, inbesondere solcher von nicht-technischer Natur!

    Denjenigen, die sich wünschen, dass Linux ein Mainstream Betriebssystem auch auf dem Desktop hervorbringt (in vielen anderen Nutzer auf dem Smartphone ist es das ja in Form von Android schon längst), ist die dezentrale Organisation und fehlende zentrale Produktstrategien und Marketing natürlich ein Dorn im Auge.Für diejenigen, die ihre Autonomie weitestgehend minimieren wollen, ist die dezentrale "Fragmentierung" und eine fehlende "ordnende Zentralgewalt" genau das Richtige! :D

    Das sind alles schon fast Allgemeinplätze, aber: Linux ist eben flexibel genug, dass Eine wie das Andere unterstützen zu können, es ist halt "nur" ein Kernel. Der auf sehr vielen Seiten sehr erfolgreich und intensiv eingesetzt wird, möchte ich hier einmal festhalten, wenn er auch auf dem Desktop keine riesige Rolle spielt.

    Das Linux nun (bislang und höchstwahrscheinlich auch in Zukunft) nicht zum Mainstream auf dem Desktop beigetragen hat, liegt IMHO weniger an Kern oder an den im Ausgangsartikel genannten dezentralen Strukturen (die kann man bei genug Willen irgendwie kompensieren oder etwas Eigenes aufbauen, siehe Android), sondern am relativ geringem Interesse. In der "Zivilgesellschaft" wird es letztendlich doch als eher "nischiges" Technikthema wahrgenommen. Seitens der Wirtschaft sind Betriebssysteme doch eher für Wachstummärkte interessant, die es für den Desktop eben kaum gibt.

    Als zweites Problem im Bereich Wirtschaft könnte man dann noch die Kombination von Linux mit GNU zu einem vollständigen Betriebssystem betrachten, aber das ist dann schon wieder IMHO eine Variation vom Ausgangsthema.

    Ich denke jedoch das sich das derzeit im Wandel befindet. Öfentliche Einrichtungen, ein ganzen Bundesland setzt auf OpenSource. KDUs setzen vermehrt auf Linix und OpenSource und ganz wichtig sind die Hybridslösungen.

    [...]

    Hinzu kommt das der Trend zu Mobilgeräten läuft und weg vom klassischen Desktop/Laptop PC.

    Zum ersten Teil: Dein Wort in Gottes Gehörgang! ;)

    Zum letzten Satz: Der Trend zu Mobilgeräten bedeutet nicht automatisch, dass es einen Trend weg vom klassischen Desktop/Laptop gibt. Tatsächlich ist (zumindest in Deutschland) so, dass der Anteil der Personen mit klassischem Laptop/Desktop über die Generationen hinweg konstant ist aber die Mobilgeräte von der jüngeren Generation etwas intensiver genutzt werden.

    Quelle: siehe Seite 9 des Anhangs der Studie vom Deutschen Digitalindex

    Keine Alternativen ? Kein Mitleid !

  • Ich bevorzuge nach wie vor den klassischen Desktop-PC – jetzt als Micro-PC . Smartphone und Tablet sind für mich „ergänzendes“ Beiwerk z. B. für unterwegs.

Participate now!

Don’t have an account yet? Register yourself now and be a part of our community!