Beiträge von Kaenguru73

    Ein Raid1 kann doch beliebig viele HDDs enthalten, oder nicht?

    Jein, es muss eine gerade Anzahl Festplatten sein (2, 4, 6, 8, 10, ...).

    RAID1 hat den Nachteil, dass für mehr Kapazität (mehr Platten) jeweils eine zusätzliche Platte für Redundanz beschafft werden muss: Wer 2TB mehr braucht, muss 2x2TB Platten anschaffen und betreiben. Ein Geschwindigkeitsgewinn durch mehr Platten findet bei RAID1 nur beim Lesen statt.

    Wer Geschwindigkeitsgewinn auch beim Schreiben will, muss RAID10 einsetzen. Bei RAID10 werden RAID1-Plattenpaare eingerichtet und die Plattenpaare dann über ein RAID0 parallel verwendet.

    Seit SSDs/NVMes verfügbar sind, sind diese klassischen RAID-Modi wieder in, denn für die Berechnungen komplexerer RAID-Level5&6 bremsen die Controller-Prozessoren die schnellen Flashspeicher aus.

    --------------------------

    Nachtrag: Die NAS-Systeme machen auch etwas "RAID1-änhliches" mit 3, 5, 7, usw. Platten unterschiedlicher Größen. Dabei werden Blöcke immer auf zwei Platten gespeichert. Wie das im Einzelnen funktioniert, hängt von den Kapazitäten der Platten ab (beispielsweise erreicht man mit 1TB + 1TB + 2TB eine Nettokapazität von 2TB. Jeder Block von beiden 1TB-Platten wird auch auf der 2TB-Platte gespeichert // bei 1TB + 1TB + 1TB ergibt sich eine Nettokapazität von 1,5TB: Zur ersten Hälte von Platte 1 wird eine Kopie in der hinteren Hälfte von Platte2 gehalten, die Kopie der ersten Hälfte von Platte2 wird in der hinteren Hälte von Platte 3 gespeichert und die erste Hälfte von Platte 3 wird als Duplikat in der hinteren Hälfte von Platte 1 gespeichert).

    Dies ist ein AnfängerInnen-Forum. Erklärung/Klarstellung zu geeignetem Vorgehen ist da für stumme MitleserInnen wichtig.

    Nun habe ich von Chip die *.deb Installation vorgenommen

    =O Virenscanner drüberlaufen lassen und die Warnungen bitte gaaanz paranoid überprüfen - natürlich VOR der Installation. (Diese Quell-Website hat sich einen echt miesen Ruf erworben.)

    Eine *.deb-Datei zu installieren bedeutet, dass da ein Paket einfach in das System gehängt wird. Wenn das System nicht die passenden Bibliotheken besitzt, funktioniert es nicht und wenn das System später auf andere Bibliotheksversionen aktualisiert wird, dann wird das *.deb-Paket auch nicht mehr funktionieren. Manchmal gibt aber es nichts anderes (proprietäre Drucker-/Scannerkomponenten).

    Deshalb sollte die Distributions-eigene Paketverwaltung dringend bevorzugt werden: Es findet dadurch eine Abhängigkeitsprüfung statt und es (sollten) auch Abhängigkeiten bei der Systemaktualisierung berücksichtigt werden, durch die Distribution.

    Bei den flatpak-Installationen werden benötigte Bibliotheksversionen mitinstalliert (das kann sehr groß werden, bei grafischen Programmen) und zukünftig getrennt vom Restsystem in einem Container betrieben. Diese Umgebungskomponenten werden dann bei verfügbaren Updates mit dem flatpak zusammen aktualisiert.

    Ich bin ja relativ neu bei Linux und habe bis jetzt nur Ubuntu verwendet und bin damit auch eigentlich sehr zufrieden.

    Das ist doch gut. :)

    Ich Frage mich jetzt ob ich trotzdem mal andere Distributionen aus testen sollte und wenn ja welche (es gibt ja sehr viele)?

    Meine Antwort: Nein, nutze Dein System und setze Dich damit auseinander. Realisiere Dinge für Dich und lerne dabei mit GNU/Linux umzugehen. Lerne, wie Dinge gemeint sind. Viele Befehle/Bestandteile von GNU/Linux sind sehr mächtig und gleichzeitig in ihrem Funktionsumfang abgegrenzt, sie werden ergänzt durch andere Tools. So entstand ein verlgeichsweise modulares System, welches sich wirklich zu erfahren lohnt.

    Die Distribution zu wechseln ist Verschwendung wichtiger Kopfressourcen. Welche Distribution in der einen oder anderen Teildisziplin etwas besser macht, spielt eigentlich keine Rolle. Vor allem sind diese Vorteile oft zweifelhaft und erhöhen nur die Zugänglichkeit in einem winzigen Bereich.

    Wer immer zu anderen Distributionen schielt, der denkt auch immer das Gras sei woanders grüner. ;)

    Ich habe die komplette SSD gesichert und das Backup soll auch wieder genau auf dieselbe SSD drauf.

    Das Problem an diesen Partitionssicherungen und -wiederherstellungen ist leider UEFI. In der EFI-Partition befindet sich ein Boot-Manager und der Verwendet für Linux inzwischen UUIDs anstatt der früheren Laufwerks-&Partitionsnummern.

    Wenn ein Partitionssicherungstool nun eine Partitionssicherung erstellt und wiederherstellt, muss es sich entscheiden, ob es eine neue UUID zuweist (das wäre nötig, um die Partition als Kopie auf derselben Festplatte zu betreiben), oder eine wirkliche 1:1-Wiederherstellung durchführt. Durch die ganze UEFI-Geschichte sind ganz viele Möglichkeiten entstanden, welche eigentlich keiner verstehen lernt, der nicht mehrmals pro Woche damit zu tun hat. :(

    Kurzum: UEFI ist der Wahnsinn! ;)

    Eigentlich müsste man nach einer Wiederherstellung überprüfen, was sich geändert (z.B. PartitionsIDs) und die grub-Konfiguration entsprechend anpassen, aber das ist für die allermeisten sehr neu und hat weitreichende Konsequenzen (System startet nicht mehr). Irgendwo ist auch hinterlegt, welche EFI-Partition im System verwendet wird, im Fall mehrerer Festplatten. Ich weis das auch nicht im Detail, aber in den UEFI-Anpassungen liegt die sicher Ursache für Deine erfolglosen Wiederherstellungsversuche.

    Man kann die UEFI-Sachen auch neu erstellen, aber das ist kompliziert. Ich hatte da mal eine gute Anleitung im Netz gefunden (war aber auch relativ anspruchsvoll), nur leider sind mehrfache Wiederfindungsversuche gescheitert.

    Ich weiß wieviel Arbeit dass ist denn die ich hab auch einen eigenen Datenserver der im Netz hängt und eine NAS als Datengrab im LAN.

    ... oder zu Hause einfach eine externe 3,5" Platte mit eigener Stromversorgung an die Fritz!Box anschließen würde doch auch schon gehen? ;)

    In den NAS-Systemen ist mittlererweile sehr viel realisiert, inkl. Nextcloud im Container beispielsweise. Das wird aber alles mit herstellerspezifischem Kram realisiert/überbaut.

    Keine Ahnung, was für ein PC und was für ein BIOS/UEFI der hat. Aber das klingt danach, dass irgendwas mit den ACPI-Einstellungen völlig anders funktioniert, als der Linux Kernel das erwartet.

    Meine Erfahrungen sagen, dass Anpassungen in diesem elementaren Bereich unter Windows weitreichend sind, aber mit Linux imho nicht möglich sind. Ich würde da pragmatisch rangehen: Mit den BIOS-Einstellungen exmerimentiern und mit Live-System (USB-Stick) testen. Falls es klappt, dann mit diesen Einstellungen frisch neu installieren.

    ich werde mir in den nächsten Tagen ein (semi-)professionelles System in Form von Synology, Qnap, Asustor oder sowas zulegen. Muss da noch ein wenig recherchieren.

    Bitte habe beim Recherchieren und dem Thema NAS immer ein paar Dinge im Hinterkopf:

    Unter dem Oberbegriff NAS verbirgt sich in der Regel ein Toolset aus Open Source Komponenten und ein umfangreiches Webinterface, um die Open Source Dienste zu konfigurieren und zu überwachen. Dieses Webinterface ist nicht unbedingt Open Source und es obliegt dem Hersteller (Synology, QNap, Asus, ...) dieses zu warten und ggf. weiterzuentwickeln.

    Für den geneigten Anwender ergeben sich Abhängigkeiten, wie bei (anderen) kommerziellen Produkten. Auch ist die Auseinandersetzung mit diesen NAS-Systemen (also dem Webinterface) nicht mit dem Erlernen der Basisfunktionen verbunden.

    Bei der enthaltenen Hardware gibt es seit kurzem auch seltsame, künstlich anmutende Abhängigkeiten (Synology schreibt schon fast vor, welche Festplatte - vorzugsweise von Synology gelabelt - eingesteckt werden darf). Es handelt sich bei den NAS Systemen auch meist um sehr einfache Computer ohne ECC RAM, ohne Hardware-RAID, ohne IPMI (headless Zugriff auf Bootscreen und EFI/BIOS), also irgendwie ohne alles. Aber sie sehen schick kompakt aus und lassen sich einfach bedienen.

    Aus dem Blickwinkel ist ein (kommerzielles/fertiges) NAS für mich genau das, von dem ich weg will.

    Einwurf: nano ist ein Texteditor auf Kommandozeilenebene. Den kann man nicht ersetzen durch einen Editor mit graphischen user interface (GUI), denn das funktioniert nicht gut, wenn man aus dem Terminal als normaler Benutzer beispielsweise per sudo gedit /var/log/... eine Textdatei bearbeiten/anzeigen lassen möchte, auf die man per sudo zugreifen muss (also eigentlich als Benutzer root). ;)

    Wo hier gerad edi eRede von Airflow war.
    Das Mainboard meines Sohnes hat nur zwei Anschlüsse für Lüfter.
    Was haltet ihr von diesen Y Kabeln für Lüfter? Habe ein wenig Angst, dass man damit zwar mehr Lüfter verbauen könnte, diese aber nicht mehr wirklich auf Dehzahlen kommen.

    Das ist kein Problem. Die Drehzahl wird nicht reduziert, weil die Y-Kabel die Lüfter parallel mit Strom versorgen (wie eine Verteiler-Steckdose am normalen Stromnetz).

    Allerdings gibt es neben Plus (in der Regel rot) und Minus (in der Regel schwarz) der Gleichstrom-Versorgung eine dritte Ader (in der Regel gelb) für das Tachosignal. Diese gelbe Ader sollte nur an einen Lüfter angeschlossen sein, damit wenigstens ein Tachosignal korrekt ausgelesen werden kann.

    Das gilt für die dreipoligen Lüfteranschlüsse (gern Molex genannt).

    (uwe@uwe-MS-7C56:/tmp$ dpkg amdgpu-install_5.7.50700-1_all.deb
    dpkg: Fehler: eine Aktions-Option wird benötigt

    dpkg --install amdgpu-install_5.7.50700-1_all.deb, bzw.

    sudo dpkg --install amdgpu-install_5.7.50700-1_all.deb

    sollte besser funktionieren, vergleiche https://wiki.ubuntuusers.de/dpkg/. :)

    Ich versteh Linux bzw. die Konsole nicht. Sry für meine schreibe.

    Ich benutze zwar Debian, aber auch mit Cinnamon. Da gibt es doch unter Systemeinstellungen die Synaptics-Paketverwaltung, wo Du oben rechts mit der Lupe nach einem Paketnamen suchen kannst (in Deinem Fall amdgpu-install) . ;)

    Fairerweise muss ich dazu sagen, dass ich in meinem persönlichen Umfeld viele Linux Nutzer kenne. Das sind aber ausnahmslos Entwickler. Die nutzen Linux weil Sie damit gewisse Task schneller, besser bzw überhaupt erledigen können. Man erkennt die immer sehr leicht. In der Regel nutzen Sie ein default Ubuntu und haben nicht mal das Hintergrundbild angepsst (wie bei mir auch).

    Die verwenden keine Zeit damit die Maschine zu "individualisieren" oder komische "Conky-Scripts" zu schreiben. Die arbeiten einfach damit. Für die ist Linux kein "Hobby" sondern ein Werkzeug.

    Ich stimme Dir grundsätzlich zu, doch es heißt nicht grundlos "Das Sein bestimmt das Bewustsein.". Mir geht es neuerdings genau andersherum: Linux ist meine geliebte (und individualisierte) Hauptumgebung, während ich keinerlei Aufwand auf meine Parallelinstallation von Windows stecke. ;)

    Das Phänomen existiert also, doch es sollte unabhängig von Windows oder Linux sein. Nur leider hat man derzeit nur mit WSL/WSL2 die Möglichkeit, Windows-Programme gleich gut wie Linux-Anwendungen zu verwenden.

    Btw. gibt es eigentlich irgendwelche Abstriche/Einschränkungen für die Linux-Anwendungen unter WLS2?

    Na, dann rudere ich doch wieder zurück. Wenn ich mit Nextcloud meine Markdown-Files synchronisieren will, damit meine Notizen aktuell sind, kann ich die ja kaum verschlüsselt ablegen. Meine geistigen Ergüsse, teils privater Natur lege ich dann dort sehr ungern ab.

    Verzeihe die Rückfrage: Mit verschlüsselt ablegen meinst Du dann nur die synchronisierten Dateien (webdav), oder?

    Andere Daten, wie Kalendereinträge (caldav), Kontakte (carddav) und ggf. Email (Imap/SMTP) würdest Du unverschlüsselt beim Cloudanbieter lagern, richtig?

    (Du schriebst eingangs, dass Du schon Microsofts OneDrive verwendest, deshalb habe ich das Verschlüsselungsthema vorerst nicht erwähnt. Du könntest eben die gewohnte Funktionalität von OneDrive und die bisherige Sicherheit/Privatsphäre mit einem Nextcloud-Account abbilden.)

    Und es erinnert sich auch keiner mehr an die Abhöraktion des Merkel-Telefons?

    Aber klar doch, aber wahrscheinlich hatte die keins von Microsoft.

    Niemand durchleuchtet den massiven Einsatz von CISCO-Routern und Switches?

    Nein, wieso auch, Cisco wirbt für seine Produkte schließlich im Fernsehen zur Primetime. (Als wenn die Kundschaft begreifen würde, was für Produkte das sind, aber es überzeugt die Leute.) Die müssen ja wohl sicher sein. :rolleyes: Der andere große us-amerikanische Anbieter Juniper ist auch über alle Zweifel erhaben.

    Derartige Peinlichkeiten dämpfen die USA nicht einmal, den Mitbewerber mit Schmutzkampagnen zu überziehen.... aber in der EU will (oder darf :/) seitdem keiner mehr HUAWEI-Komponenten einsetzen. (Links führen teils zu womöglich kostenpflichtigen heise.de-Artikeln.)

    Naja ich bin eher dafür alles technisch Mögliche aus zu probieren und bis an Ihre Grenzen zu reizen.:P

    [...] Nicht mit der stillschweigenden Masse zu arbeiten sondern zu testen was Möglich ist.

    Die von uns erreichbaren KI-Systeme besitzen doch (noch) nichts, was mit "Bewustsein" oder "Urteilsvermögen" (im klassischem Sinn) bezeichnet werden könnte. Was würde eigentlich mit einer selbstlernenden* KI passieren, wenn wir sie mit ironischen Aussagen "bilden" würden? :evil:

    * Im Gegensatz zu chatGPT, das ja sozusangen im Relase-Zustand eingesperrt ist, also nichts Neues durch unsere Interaktionen "erwirbt".

    Jetzt zanken sich zwei, die sich bisher respektierten... :( Das habe ich ja toll hingekriegt. :thumbdown::(

    Was nicht den größten Marktanteil erlangt, ist nicht wirklich relevant in der realen Welt. =O Schwarm-"Intelligenz" incoming!

    Moral von der Geschichte? So^ ein Satz wirkt so, wie übelster Schwurbel/Hasskommentar. :S (Ob es das ist, liegt natürlich im Ermessen des/der LeserIn.)

    Folgendes ist ehrlich frei von Ironie: Bei der Gelegenheit ein Frohes neues an jedeN Mod und Danke dafür, dass Ihr Euch unsere Posts durchlest, unseren Ergüssen Aufmerksamkeit widmet und den Kram nach erfahrener Abwägung im Gesamtinteresse des Forums bearbeitet/filtert. :*

    Machst Du es dir mit dieser Definition nicht ein bissl einfach? Ich find' diese Aussage von dir doch sehr unter deinem bisherigen Niveau.

    Hey, mit "Marktanteile definieren definitiv eine Relevanz." hat kim88 seine ursprüngliche Aussage zu einer Aussage der "Marktrealität" gemacht und damit klarer von sich selbst distanziert. :thumbup:

    Ich bin hier kein Mod oder so, aber ich habe kim88's Aussage mit meinem Post kritisiert. ("Was nicht den größten Marktanteil erlangt, ist nicht wirklich relevant in der realen Welt. =O Schwarm-"Intelligenz" incoming") <- Das war gegenüber kim88 nicht in Ordnung von mir! X(. Bitte steig' nicht weiter drauf ein und vor allem nicht gegen kim88 persönlich.

    Es war keine Kritik von mir an seiner Aussage, sondern an der Art wie solche Aussagen allgemein in den Raum gestellt und akzeptiert werden (obwohl eigentlich verdammt viele nicht damit einverstanden sind).

    Wenn jetzt kim88 persönlich dafür angegriffen wird, dass er sich gemäß des Mainstreams äußert, dann haben wir hier auch bald eine Situation, wo jedeR jedes Wort/Buchstaben sorgfältig abwägen muss, um nicht eine ideologisch Diskussion loszutreten. =O Don't do that, please. ;)

    Ich entschuldige mich hiermit öffentlich für mein spitzfindiges Verhalten und bitte um Gnade! :|

    Nicht wenn man z.b Programme wie Adobe XD braucht.

    Rein technisch hat man mit Windows ujd WSL2 eigentlich das beste aus allen Welten.

    Ob und inwieweit Windows 8/10/11 noch technisch gut sind, hängt eher von der Definition des Begriffs "technisch" ab.

    Ich glaube Du meinst eher, dass Du als Anwender die beste Erfahrung beider Welten genießt, wenn Du Dank WSL2 unter Windows 11 auch Linux-Anwendungen mitbenutzen darfst. (Das ist keinesfalls fies oder angreifend gegen Dich gemeint! :))

    Hintergrund

    Rein technisch war Windows auch mal eines der besten Betriebssysteme: Windows NT 4 war zertifiziert nach C3 (falls die Installation entsprechend gehärtet war) und die Absicherung bestand aus

    - IP-Filterung (war per Default deaktiviert, aber eine Windows-Firewall war bereits implementiert, die es erlaubte, jede IP-Verbindung dediziert zu erlauben/unterbinden)
    - Dateizugriffsrechte in feinster Strukturierung inklusive aller Verzeichnisse des Systems (keine Änderungsmöglichkeit für Benutzer ohne Adminrechte)
    - Zugriffsrechte auf Einstellungen in der Registry (keine Änderungsmöglichkeit für Benutzer ohne Adminrechte)

    Die obigen drei Ebenen wurden leider nur von wenigen Administratoren verstanden/umgesetzt und mit Windows 7/Server 2008 kamen zig Ausnahmeregeln hinzu, um die Angreifbarkeit mangelhaft administrierter Systeme zu reduzieren. Gleichzeitig war es mit den Ausnahmen schwer bis unmöglich, die Systeme nach den bis dahin geltenden Best Practises zu härten. Das führte zu einem kompletten Wegfall der Windows-Härtung. Windows wurde ab diesem Zeitpunkt so sicher/unsicher, wie es die Installationsroutinen übergaben.

    Aber es klagten damals nur wenige ITlerInnen, während sich gleichzeitig die kaufmännische EntscheiderInnen an den neuen durchsichtigen Fensterelemente erfreuten und mit ihren Touchscreens an den neuen Smartphones spielten...

    Ubuntu ist dir mit Anstand meist verwendete Linux Distribution.

    Windows ist mit Abstand das meist verwendete Betriebssystem.

    Ob nun ein paar Nerds in Foren oder auf Reddit ein Problem mit Canonical oder Microsoft haben ist in der realen Welt nicht wirklich relevant - das belegen die Marktanteile.

    Was nicht den größten Marktanteil erlangt, ist nicht wirklich relevant in der realen Welt. =O Schwarm-"Intelligenz" incoming!

    Hab' mir die Sendung mal reingezogen. Ist einerseits recht informativ,

    Ja, darum ging es. Dank Hannah Brants gutem Vortrag sind bei mir "viele Groschen gefallen". :)

    andererseits stellenweise zu Philosophisch (erst recht von Harald Lesch, aber der neigt sowieso dazu). Was mir überhaupt nicht gefallen hat, ist wenn Fragen auftauchten die in das Weltbild von Hannah Bast als Informatikerin nicht passt abgebügelt oder verharmlost wurde.

    Man muss Harald Leschs Hintergrund beachten und aus dem heraus ist er extrem kritisch gegenüber den Entwicklungen der Digitalbranche.

    Politik

    Harald Lesch hat eines der besten Bücher zum Klimawandel mitverfasst:
    Die Menschheit schafft sich ab - Die Erde im Griff des Antropozän

    und er hat 2019 einen sehr guten, offenen und kritischen Vortrag zu Internet & Gadgets gehalten
    Prof. Dr. Harald Lesch: Die digitale Diktatur, 45Min., SWR 2019

    Bei allem gezeigtem didaktischem Talent (und sicher auch Sachverstand), scheint Hannah Bast auch einer dieser Menschen zu sein, die sich wenig von möglichen Folgen und Gefahren runterziehen lassen, oder mitverantwortlich fühlen.

    Politik

    Man beachte Ihre haarsträubende Abwiegelung zum Energieverbrauch von KI - Solange KI noch nicht soviel verbraucht wie Verkehr oder Immobilien... :rolleyes:

    Was Chat GPT angeht macht mir folgendes Sorgen. Chat GPT ist ja nur so schlau wie die Datenbanken über die es versorgt wird. Da steht viel Richtiges drin, aber auch viel Müll, Verschwörungstheorien, unwahres und und und.

    Das Training einer fähigen KI ist (noch) mordsaufwendig. Wie das funktioniert, wurde sehr anschaulich und spannend vermittelt auf dem 37C3 Kongress durch
    Rainer Mühlhoff in seinem Vortrag "KI macht Ungleicheit" auf dem 37C3Unlocked (Warnung, spätestens ab 21:40 geht es nur noch um ethische Gedanken und Nachaltigkeit)

    Ich erinnere mal daran, dass vor ein paar Jahren auf Wikipedia aufgefallen ist, dass dort ein Witzbold Informationen zu einem Krieg platziert hat der nie statt gefunden hat, was viele Jahre gar nicht aufgefallen ist.

    Das was Lesch auch schon anmeckerte über textuelle KI-Unterstützung gemieteter Trolle betraf schon früher Wikipedia (Artikel werden verzerrt/manipuliert durch bezahlte Trolle in Diskussionen):
    https://www.sueddeutsche.de/digital/wikipe…issen-1.4496890

    So eine KI hat ja keinen gesunden Menschenverstand (und wird ihn auch niemals haben) mit dem man doch recht gut falsches von Richtigen unterscheiden kann.

    Ich hoffe das, aber ich fürchte ich irre mich: Was der von Hannah Brant beschriebenen System noch fehlt, wäre etwas wie Träumen oder selbstständiges Nachdenken, bei dem die bisherigen Gewichtungen optimiert werden und die direkte Speicherung/Verarbeiung von Erfahrungen, was chatGTP so nicht macht. (Vielleicht lässt der Hersteller OpenAI alle Interaktionen aufzeichnen und sie von einer nächsten Version lernen und veröffentlich nach eingängigen Tests die nächste Version damit? :/)

    Besteht da nicht die Gefahr das solche Falschinformationen noch fiel schneller verbreitet werden und die Menschen denken das diese Information richtig ist, weil die Info ja von einer KI stammt!? Früher haben viele Menschen das geglaubt was in der Zeitung stand und zwar aus dem Grund weil es in der Zeitung stand. Also mich muss KI und z. B. Chat GPT noch überzeugen und stehe diesem Thema (noch) recht Skeptisch gegenüber.

    Die Menschen sind sicher (noch) nicht bereit für KI! <- Das habe ich maximal optimistisch formuliert. ;)