Posts by rust_over_python

    Wine war gar nicht installiert, ich hab nur Proton durch die Steam-Installation, was natürlich wine unter der Haube nutzt. Den Installer habe ich von https://portal.plarium.com/de/download/?plid=152627&appId=17 bezogen.

    Reicht reines wine denn aus? So weit ich weiß baut proton ja noch einiges drum herum, um wine zu erweitern.

    Wenn ich wine installiere habe ich unter Arch Version 10.6, würde ihm aber vermutlich etwas anderes wie Fedora installieren, wo die Versionen etwas älter wären.

    Ich habe mal zwei WINE-Prefixes erstellt, einen mit 32-Bit-Architektur und einen mit 64, aber in beiden schlägt es fehl. Eine .NET-Laufzeitumgebung fehlte, die hat es aber automatisch installiert. Danach kamen aber unzählige Fehler dass xy noch nicht implementiert sei. Falls du Interesse hast, der Log ist in der Textdatei angehängt, hier jetzt für die 64-Bit Variante, der 32-Bit log war quasi identisch.

    Wenn ich nach der semi-erfolgreichen Installation das Programm mit wine ./drive_c/users/alice/AppData/Local/PlariumPlay/PlariumPlay.exe starte, kommt folgender error log:

    Code
    00d0:fixme:wineusb:query_id Unhandled ID query type 0x5.
    0138:fixme:heap:GetNumaHighestNodeNumber semi-stub: 00007FFFFE27F11C
    0138:fixme:seh:WerRegisterRuntimeExceptionModule (L"C:\\Program Files\\dotnet\\shared\\Microsoft.NETCore.App\\6.0.10\\mscordaccore.dll", 00006FFFFC110000) stub
    0138:fixme:ntdll:NtQuerySystemInformation info_class SYSTEM_PERFORMANCE_INFORMATION
    0138:fixme:ntdll:EtwEventSetInformation (deadbeef, 2, 0000000180161038, 34) stub
    0138:fixme:ntdll:EtwEventSetInformation (deadbeef, 2, 00000001801588F0, 17) stub
    0138:err:module:find_forwarded_export module not found for forward 'icuuc68.u_charsToUChars_68' used by L"C:\\windows\\system32\\icu.dll"

    Was meinst du damit genau? Das kann ich so nicht bestätigen, falls ich dich nicht falsch verstehe. UnRAID nutzt als Standard XFS und man kann einzelne Platten problemslos entnehmen und in einem Rechner anklemmen und auf alle Daten zugreifen. Das macht es leichter bei Problemen.

    RAID kannst du übrigens unabhängig vom Filesystem auswählen, da es übergeordnet ist. Du kannst also auch mit zum Beispiel ext4 einen RAID-Verbund nutzen.

    Der von Ct3003 sagte das so 😅. Der Clou bei Unraid ist nicht das Dateisystem der einzelnen Platten, sondern die Art und Weise, wie es die Festplatten gegen Ausfall absichert. Während die einzelnen Festplatten ein übliches Dateisystem wie XFS verwenden, werden die Paritäten, der Schutzmechanismus, über eine eigenes entwickelte Berechnungslogik umgesetzt, diese ist Unraid-spezifisch. Deren Ansatz ist natürlich irgenwo genial, weil es super flexibel und sauber getrennt ist, man findet es aber eben nur bei denen. So einfach wird man nicht auf ein Raid 5 oder Z1 umsteigen können, weil die nicht-Parität-Platten nicht einfach in ein Raid5/Z1 eingehängt werden können

    Unraid ist sehr bequem einzurichten, auch dass die eine Platte nach der anderen füllen, anstatt alles zu verteilen, macht es in Notfällen einfacher darauf zuzugreifen. Aber: deren Dateisystem ist leider proprietär, heißt, einmal bei Unraid ist man an die gebunden und deren Preise steigen immer weiter. Auch ist es langsamer, weil nicht von mehreren Platten gleichzeitig gelesen werden kann. Ich würde daher heute eher nicht mehr auf Unraid setzen, sondern auf TrueNas (Scale) oder OMV, ganz vielleicht auch ein Standard-Linux-Server mit Debian oder Ähnlichem.

    Was ich unterschätzt habe, ist der RAM-Bedarf. Ich bin mal mit 32GB gestartet, weil die vorherigen 8GB im alten Server etwas knapp waren. Die sind jetzt aber immer zu > 95% ausgelastet, ZFS, das Dateisystem, das TrueNas und Proxmox nutzen, ist sehr RAM-hungrig. Das ist aber so gewollt, weil RAM, der genutzt wird, auch die Performance erhöht. Hab gehört ZFS sei das „beste“ Dateisystem für RAID und Server, ZFS hat RAID integriert, es gibt dann Level wie Z1, Z2 oder Z3, die angeben, wie viele Platten ausfallen dürfen, bevor man Datenverlust hat, mit abnehmendem nutzbarem Speicher, je höher die Sicherheit wird. Nur dass Oracle seine Finger irgendwie im Spiel hat, ist nicht so schön bei ZFS, jetzt aber auch kein riesen Problem.

    Ich habe bei mir tatsächlich einen Tower-PC als Server stehen, darauf Proxmox mit 4 4TB HDDs, die ich an eine TrueNas VM durchgereicht und dort in einem Raid Z1 habe. Läuft so weit alles, vor allem das Proxmox ist sehr entspannend, weil man mal eben so eine weitere VM für z.B. einen HomeAssistant und LXC-Container erstellen kann. Nur das mit dem NAS in einer VM würde ich wahrscheinlich nicht mehr so machen, weil das NAS-Betriebssystem dann keien Hardwareinfos mehr über die Platten bekommt und diese nicht in den standby versetzen kann. Mit der VM-Option in TrueNas hab leider ich keine guten Erfahrungen gemacht, war aber auch noch in einer sehr frühen Phase von TrueNas Scale. Den Stromverbrauch zu messen habe ich mich bisher nicht getraut, in der Stromrechnung hat man aber keinen wirklichen Unterschied gemerkt, alles läuft nämlich 24/7 😅

    Ich sag immer, man lernt nicht eine Programmiersprache, man lernt programmieren. Das eigentlich kniffelige ist meiner Meinung nach nicht die Syntax der jeweiligen Sprache, sondern einen Blick dafür zu bekommen, welche Strategie für das jeweilige Problem zu wählen ist. Auch wie mehrere Teile zusammenspielen, wann welcher Code überhaupt läuft, Architektur etc. zu verstehen, ist fast schwerer als die Syntax. Eine Ausnahme ist hier Rust, was mit seinem borrow checker oder life times etwas verwirrend sein kann, gerade wenn man von high-level Sprachen wie Python oder JS/TS kommt. Fast jede Programmiersprache bietet grundlegende Mittel wie Variablen, if-Abfragen, Schleifen, Funktionen und Objekte, manche mehr, andere weniger. Die Syntax ist dabei oft ähnlich und muss quasi nicht gelernt werden. Traut euch an low-leveligere Sprachen, Typisierung ist toll und verhindert Fehler!

    Brauchen nicht, wenn es wirklich kritische, super wichtige Daten sind, muss man sich nur nach einer echten Backup-Lösung umsehen. Ein Cloudanbieter KANN so eine Lösung sein, muss es aber nicht. Wenn sich die Daten nicht oft ändern, kann man die auch ruhig auf 1-2 externen Festplatten an einem zweiten Standort, bei Bekannten oder so aufbewahren. Siehe 3-2-1-Backup-Strategie. Wie groß sind denn die erwarteten Datenmengen (privat/geschäftlich)?

    Ich würde grundsätzlich eher von Cloudanbietern abraten. Das mag anfangs erstmal verlockend wirken, weil man sich um nichts kümmern muss. Das zieht aber oft einen langen Rattenschwanz an Problemen und letztendlich auch höheren Kosten nach sich. Deren Systeme sind oft proprietär, man sperrt sich quasi ein und die Daten da wieder rauszubekommen, weil man den Anbieter wechseln möchte, ist oft nicht so leicht.

    Für private Daten würde ich auf jeden Fall immer zu einem NAS raten, einfach weil man sehr viel Speicher vergleichsweise günstig (= niedrige laufende Kosten) bekommt und es wunderbar als Backup für Fotos z.B. vom Handy funktioniert. Auch zur zentralen Speicherung und Verteilung über mehrere Computer ist es ein Träumchen. Dazu ist es ein offener Standard, der überall außer bei Android direkt im nativen File Manager hinzugefügt werden kann, heißt: keine komischen Clients von Cloudanbietern installieren.

    Für geschäftliche Daten sieht das etwas anders aus, da hab ich aber kaum Ahnung, weil man hier bestimmt irgendwelche behördlichen Auflagen erfüllen muss. Meines Wissens kommt man da aber mit einem eigenen Server/NAS besser weg als wenn man die Daten unverschlüsselt bei einem US-Cloudanbieter speichert. Viele Länder haben wie die USA mit ihrem Cloud-Act ein Gesetz, das es Behörden/Geheimdiensten erlaubt, auf sämtliche Daten von Unternehmen mit Sitz im jeweiligen Land zuzugreifen, ohne den Nutzer darüber zu informieren. Dazu scannen viele Cloudanbieter die Daten mit KI, „um Kinder zu schützen“ – wer weiß, was sie tatsächlich anstellen. Es gibt regelmäßig falsche Positiv-Treffer und in seltenen Fällen führt das auch zur Sperrung von Accounts und man ist die Daten los.

    Die von uns hier skizzierten Szenarien mit Blitzschlag, Hochwasser, Brand etc. sind Ausnahmesituationen und nicht die Regel. Im Alltag ist ein NAS immer angenehmer zu nutzen, nur in diesen sehr seltenen Ausnahmefällen wäre man über einen Cloudanbieter glücklich. Je nach Datenmenge würde ich alles auf einem NAS speichern und die besonders wichtigen Daten als Backup in einem manuell verschlüsselten VeraCrypt- oder Cryptomator-Container bei irgendeinem Cloudanbieter hochladen. Bei unter 15 GB könnte es auch einfach ein random Google Drive sein. Durch die manuelle Verschlüsselung stellt man sicher, dass kein unbefugter Zugriff hat.

    Eine USV wäre auch ein Blitzschutz (Überspannungsschutz) der ebenso zu Datenverlust führen kann.

    Eine Hybridlösung ist das Einfachste. Backup in eine non public cloud per SFTP.

    Ich wäre gerade als Anfänger sehr vorsichtig mit SSH/SFTP, man kann da viel falsch machen. Besonders wenn es über's Internet geht ist höchste Vorsicht geboten. Im schlimmsten Fall sind die Daten dann sogar gefährdeter, weil Dritte („Hacker“) easy darauf zugreifen können. Es gibt Hacker-Gruppen, vermutlich auch staatliche, die automatisiert kontinuierlich nach häufigen Schwachstellen und Konfigurationsfehlern suchen, um diese gezielt auszunutzen. In lokalen/privaten Netzwerken ist die Anforderung nicht ganz so hoch, man muss aber immer mit dem Gedanken „was wäre, wenn Böse in meinem Netz sind“ handeln, sprich, es trotzdem möglichst sicher gestalten. Ich würde mir selbst auch noch nicht zutrauen, SSH/SFTP 100% korrekt zu implementieren. Grundsätzlich kann ich aber immer raten, IMMER Updates zu machen, am besten automatisiert, mit SSH-Keys (public/private key) anstelle von Passwörtern zu arbeiten, Root-Zugriff deaktivieren, Port von 22 zu etwas anderem zu ändern und bestimmt noch einiges mehr, wahrscheinlich mit Zertifikaten oder so, aber da hört mein Latein auf.

    Hallo zusammen,

    ich würde meinen Vater gerne von einem Umstieg auf Linux überzeugen, er will aber um alles in der Welt "Soldiers Inc." von "Plarium Play" spielen (kostenlos). Ich bekomme es mit Lutris oder Bottles auch ganz einfach installiert, das Problem kommt bei der Anmeldung: Klickt man Anmelden über Facebook, würde sich unter Windows ein Browserfenster öffnen, unter Linux nicht. Daran scheint alles zu scheitern.

    Ich habe schon versucht, den Installer von einem Windows-Browser im selben wine/proton-Prefix auszuführen in der Hoffnung, dieser würde zur Anmeldung geöffnet, ohne Erfolg. Es kann doch nicht sein, dass es an der ANMELDUNG in einem Spiel, was ansonsten läuft, scheitert, dass jemand bei Windows bleibt … habt ihr irgendwelche Tipps und Tricks?

    Es kommt darauf an, was die eigenen Prioritäten sind. Du musst dich fragen: Wie wichtig sind mir die Daten? Wie (un)abhängig von Anbietern oder Internetausfällen möchte ich sein? Wie viel Kontrolle möchte ich? Ich hätte etwas Bauchweh ausschließlich auf eine Cloud zu setzen, weil man sich abhängig von Anbietern macht, hohe laufende Kosten hat, bei Internetausfällen lost ist und manuell alles verschlüssel muss (weil, wer weiß, wer alles im Hintergrund Zugriff auf die Cloud-Daten hat, auch bei seriösen Anbietern mit Sitz in Europa). Eine Cloud kann sinnvoll sein, um sehr wichtige Daten zusätzlich als off-side Backup zu speichern, um eben vor sowas wie Hochwasser zu schützen. Alternativ kann man aber auch ein zweites NAS irgendwo an einem zweiten Standort aufstellen.

    Ich persönlich hab nur ein selbst gebautes NAS mit TrueNAS rumstehen, keine Cloud. Ich möchte volle Kontrolle über meine Daten haben, mit dem Preis, dass ich selbst für deren Sicherheit und Verfügbarkeit verantwortlich bin. Ein Vorteil eines NAS ist meistens auch die Geschwindigkeit, da es im LAN läuft. Die wenigsten haben eine Gigabit-Internetleitung, geschweige denn 10 Gbit/s up & download. Eine externe Backuplösung hab ich derzeit noch nicht, wäre aber sinnvoll. Bisher waren mir die Daten nicht wertvoll genug, um diesen Schritt zu gehen. Gegen Stromausfälle kann man sich mit einer USV schützen. Hab ich auch noch nicht, die 4-5 Stromausfälle haben zum Glück nicht geschadet, professionell ist das aber nicht.

    Ein RAID ist irgendwo schon eine Datensicherung, nur täte ich mich schwer dies als Backup zu bezeichnen. Es ist definitiv mehr als nur ein Ausfallschutz, da es auch auch vor Hardware-Schäden schützt. Blöd nur wenn beide Platten zeitgleich kaputt gehen, was gar nicht soo unwahrscheinlich ist, wenn beide aus der gleichen Serie des gleichen Herstellers sind. Aber gegen z.B. Hochwasser oder Brände schützt natürlich nur eine Backup-Strategie mit Speicherung an einem physisch ganz anderen Ort.

    Eine Verschlüsselung der Festplatte schützt „nur“ vor lokalem/physischem Zugriff. Wenn das NAS läuft und Dateien ins Netzwerk freigibt erhöht das die Sicherheit jedoch nicht, denn dann ist es eh entschlüsselt. Wäre es nicht entschlüsselt könnte man keine Dateien darauf ablegen etc.. Aus der Ferne ist es dann genauso angreifbar wie eines mit unverschlüsselten Festplatten. Aber schaden kann es natürlich nicht (außer man vergisst die Schlüssel). Wichtiger zum Schutz zur Laufzeit ist finde ich:

    • Strikte Berechtigungen - nur so viel wie nötig, mindestens auf Freigabeebene (SMB), besser noch auf Dateisystemebene
    • Starke individuelle Passwörter
    • Und, ganz wichtig: Wenn man SMB zur Dateiübertragung nutzt, dann ausschließlich verschlüsseltes SMB zulassen. Manche Clients, gerade mobile Apps unterstützen das nicht, aber die kann man dann aus Sicherheitsgründen einfach nicht benutzen. Auch SMB 1.0 verbieten, weil es krasse Sicherheitslücken hat