Relativ stromsparender Mini-Homeserver - ASUS NUC 14 / Terramaster D4-320

  • Moinsen

    Gefühlt baue ich aktuell alle 8 Wochen mein NAS/Homeserver um und wechsel dabei auch nach Bedarf zwischen TrueNAS CE und unRAID. Vielleicht sind Homeserver das für mich, was Desktop-Distros sprichwörtlich für unseren geschätzten DenalB sind :)

    Mein "Problem" war bisher, dass ich relativ potente Hardware der Consumer-Sparte zu Servern umfunktioniert hatte. Das waren teils Ryzen 5, zuletzt aber auch ein i3 der 13. Generation. Das alles mit einem 750 Watt Netzteil in einem riesigen Fractal Design Refine XL. Ich habe es relativ wenig genutzt, gemessen daran wie oft ich Filme schaue und wie viel Platz das riesige Teil im Wohnzimmer weggenommen hat. Ich wollte daher eine andere Lösung haben, die klein und somit platzsparend, aber auch stromsparend ist.

    Eines vorweg: Geld einsparen ist zumindest aktuell natürlich Quatsch. Die Anschaffung kostet mehr, als ich in einem Jahr vermutlich einsparen werde. Ich spare dann in der Zukunft irgendwann Geld ein. Allerdings kann ich gegenüber meiner Frau einmalige Ausgaben für meine Hobbys besser rechtfertigen als Nachzahlungen beim Strom oder plötzlich 15 EUR monatlich mehr an Abschlag :D

    Ich hatte mir schon vor ein paar Wochen ein ASUS NUC 14 mit einem N250 und 16GB RAM zugelegt. Da drin ist eine WD Black SN770 NVMe mit 2 TB verbaut. Das Teil hat mehrere 10GBit Ports und an einem hängt nun seit heute ein Terramaster D4-320. Das habe ich bewusst dafür ausgewählt, da es nicht wie die meisten anderen Gehäuse einen Port-Multiplier verwendet. Hier hat jede der 4 Platten ihren eigenen Controller-Chip, wodurch trotz einem USB-C-Kabel jede Festplatte direkt angesteuert wird. Es wird also die original UUID verwendet, SMART funktioniert und der volle SATA-Befehlssatz. Automatischer Spin-Down klappt ebenfalls, wodurch die meiste Zeit des Tages nur das NUC läuft und das zieht im IDLE zwischen 5 und 10 Watt.

    Ich habe 16GB RAM verbaut, was für meine Bedürfnisse (hauptsächlich Datengrab und Jellyfin-Mediaserver) absolut ausreichend ist.

    Wer unRAID kennt, dem wird jetzt sicher auffallen, dass es kein Parity-Drive gibt. Das kommt nach, wenn ich alle Daten migriert habe. Ein Grund, weshalb ich aktuell wieder zurück zu unRAID bin ist der, dass man Daten einfacher migrieren kann. TrueNAS kennt den/die Pool und halt Freigaben im Netzwerk. Ich muss also in der Regel alles über das Netzwerk drauf schaufeln. unRAID bietet hier aber den Unassigned Devices Support, wodruch ich beliebige interne und externe Datenträger anschließen und darauf zugreifen kann.

    Ich habe also zuvor meine gesamte Mediathek auf eine der 16TB Platten verschoben. Dann alle Platten in das Terramaster eingebaut, was übriges super smooth und einfach geklappt hat. Alles hot swap und ohne Schrauben. Dann habe ich angefangen, alle Dateien von dieser Platte ins Array zu bewegen. Wenn das durch ist, wird die 16er formatiert und dem Array als Parity-Drive zugeführt.

    Aktuell laufen die Transfers und ich bin mit der Geschwindigkeit echt zufrieden:

    Ein paar Sachen liegen noch auf dem Desktop, aber die schiebe ich dann die Tage noch nach. Das NUK (der NUK? die NUK?) hat ne 2.5GBit Netzwerkkarte und mein PC sogar 5GBit. Da Server und Switch aber mit 2.5G arbeiten, bleibt es natürlich bei den 2.5.

    Schon eine sehr platzsparende Lösung, wie ich finde. Durch die unabhängigen Controller habe ich auch einen weiteren Vorteil: Dadurch, dass die Festplatten direkt angesteuert werden, können diese auch gezielt heruntergefahren werden. Es gibt ja viele Enclosures/DAS mit Spin-Down bzw Stromsparfunktion - bei denen dann aber das komplette Array herunterfährt und auch aufwacht. Hiermit kann ich in unRAID nur die Platte laufen lassen, die gerade benötigt wird. Aktuell läuft der Mover und bewegt Filme aus dem Cache ins Array und da dürfen 3 von 4 Platten weiterschlafen.

    Das Schreiben auf die Platte passiert übrigens auch bei angenehmen 220-230 MB/s und dank aktiver (und dennoch leiser) Kühlung bleibt die Platte trotz 7200 Umdrehungen bei unter 40 Grad.

    Ich kann so also tatsächlich Strom sparen, benötige wenig Platz und habe trotzdem massig Speicherplatz und mehr als genug Leistung für meine Anwendungsfälle. Die 2.5G LAN kann ich voll ausnutzen und es läuft alles echt flott. Werde den Umzug heute Nacht laufen lassen und dann morgen beginnen, die Parity aufzubauen. In zwei Tagen sollte ich mit allem durch sein.

    LG
    Boris

  • Zwischen 5 und 10 Watt ist sehr gut, mein NAS auf Raspberryi Pi 5 Basis mit OMV braucht 8 Watt wenn die 4 HDDs im spindown sind.

    "Wissenschaft ist immer nur der aktuelle Stand des Irrtums."

  • Zwischen 5 und 10 Watt ist sehr gut, mein NAS auf Raspberryi Pi 5 Basis mit OMV braucht 8 Watt wenn die 4 HDDs im spindown sind.

    Ich muss das noch verifizieren. Ich mache aktuell zu viel damit und wenn alle Daten migriert sind und die Parität steht, messe ich mal mit einem extra Messgerät 24 Stunden lang den tatsächlichen Verbrauch. Alles andere sind ja nur Momentaufnahmen.

    CSL hat das Teil nach DIN gemessen und kommt auf 4,8 Watt:

    productattachments_files_e_v_ev-95806.pdf

    Das würde also zu meinen ersten Tests passen. Da kann ich zufrieden sein.

  • messe ich mal mit einem extra Messgerät 24 Stunden lang den tatsächlichen Verbrauch.

    Ich nutze Shellys als Messmethode.

    Meine Proxmox Server, (16 x AMD Ryzen 7 5700U mit 64GB RAM) ziehen zwischen 10 und 30 Watt je nachdem was gerade welche Maschine darauf macht. Farbbilder aus der Außenkamera am Tag rechnen kostet übrigens so um die 4 Watt mehr als nachts das Schwarzweißbild. Wenn Immich nach Gesichtern sucht braucht die Kiste um die 25 Watt.

    "Wissenschaft ist immer nur der aktuelle Stand des Irrtums."

  • Du meinst aber 16T bzw 8C, oder? Also du hast da nicht 16 CPU/Maschinen am laufen? :D

    Ja, natürlich, 8C/16T - Proxmox zeigt das so an: 16x weil Proxmox eben 16 verteilbare CPU-Kerne zur Verfügung hat. Da kann man dann zum Beispiel 4x Rechner mit 4 Kernen aufsetzen.

    "Wissenschaft ist immer nur der aktuelle Stand des Irrtums."

  • Über 10-15 Watt würde ich eh nicht nachdenken, das sind auf´s Jahr gerechnet ein 10er oder ein Kasten Bier.
    Die Transferleistung von 230Mb/s ist ja Grauenhaft, daß dauert ja Ewigkeiten ^^

    Am Mac Mini habe ich gerade ein Dock für 130€ gekauft und das schafft 5800Mb/s im Schreiben und 6300Mb/s im Lesen. Na gut, über Netzwerk schon Ok bei dir, ich kann mich noch an Totenring erinnern mit 2,5Mb/s ^^

  • So.. knapp 11 TB sind jetzt ins Array kopiert. Ging über Nacht komplett durch. Bisher alles super. Habe die 16er jetzt wieder unmounted, Array gestoppt und die 16er dann als Parity ausgewählt. Jetzt wird aktuell die Parity aufgebaut, was Etwas über 18 Stunden dauern soll.

    Real gehe ich mal eher von 20 Stunden aus, da ja immer mal zugegriffen wird. Ist viel Last, die da durch die Migration und Parity zustande kommt. Aber das sind alle 4 Seagate Exos und die sollten das abkönnen.

  • Die Transferleistung von 230Mb/s ist ja Grauenhaft, daß dauert ja Ewigkeiten

    Naja, liegt halt auch immer dran, wo da die Daten herkommen. Wenn du zum Beispiel Kopien von eigenen Videos in der Cloud liegen hast oder auf öffentlich verfügbare Videos ohne DRM zurückgreifst und hier und da ein paar Linux ISOs archivierst, kommen die Daten ja sowieso über die Internetverbindung. Ob der Server da dann nachts ne Stunde lädt oder 2, spielt dann ja keine Rolle.

    Ich nutze den Server auch für tägliche Backups vom Desktop und da sprechen wir von 57 GB. Dabei sind aber auch meine Bilder. Wenn ich die auslasse, sind es 37 GB. Irgendwie sind Bilder-Ordner nicht mehr notwendig. Also ich komme noch aus einer Zeit, in der man Bilder mit diversen Kameras gemacht und die dann auf die Platte kopiert und alte Bilder gescannt hat. Da gab es dann einen Ordner für den Urlaub in den Bergen, Opas 90er Geburtstag, usw. Mittlerweile hat sich das alles irgendwie verlagert. Handys machen sehr gute Bilder und man sieht kaum noch Menschen, die mit herkömmlichen Kameras Bilder schießen.

    Die Bilder vom Smartphone landen dann in Google Fotos, iCloud Fotos, Immich, etc. Da macht man sich gar nicht mehr die Mühe, mit Ordnern auf dem Desktop zu hantieren. Zumal Immich und Co weitere Funktionen bieten, wie das automatische Erkennen und Taggen von Fotos, Gesichtserkennung und Sortierung nach Personen, usw.

    Ich schleppe also im Prinzip sein Jahren uralte Bilder-Ordner mit mir herum, die von Rechner zu Rechner wandern, ohne dass da was neues hinzukommt. Daher mache ich einmal ein Backup auf den Server, zwei auf externe Medien, von denen eines bei meinen Eltern gelagert wird und zusätzlich verschlüsselte Backups in Google Drive, Mega und Filen. Da habe ich im Fall der Fälle dann Zugriff.

    Das reduziert dann natürlich die Größe der zu sicherten Dateien enorm. Wenn ich 37GB sichere, sind das 3 Minuten oder weniger. Das ist doch absolut okay. Zumal ich auch inkrementell sichern kann und es dann noch weniger ist.

  • Update: Nach 12 Stunden ist die Geschwindigkeit schon spürbar eingebrochen. Eventuell durch Wärmeentwicklung oder weil jetzt langsamere Bereiche der Platte erreicht sind. Aber es ist ja bei der Parity grundsätzlich so, dass das lamgsamste Laufwerk die maximale Geschwindigkeit für ALLE Laufwerke vorgibt.

    Heute morgen war ich dennoch geschockt, weil der Build bei 3-12 MB (!!!) je Sekunde lag. Dann habe ich alle Docker-Container deaktiviert, da ich dachte, dass da was am arbeiten ist. Im Verdacht hatte ich Jellyfin mit den Kapitelbildern oder so. Docker heruntergefahren und es wurde nicht wirklich besser. Maximal 13 MB/s.

    Habe dann Parity-Build kurz pausiert, damit sich da - was auch immer - wieder fangen kann. Aber es liefen dann trotzdem die Schreib- und Lesezugriffe weiter. Dann habe ich zufällig herausgefunden, dass der Mover lief. Ich hatte ehrlich gesagt ja damit gerechnet, dass unRAID den Mover pausiert, so lange ein Parity-Build läuft. Ich hatte gestern Abend noch Dateien rüber kopiert, da diese ja im Cache landen und der 2TB hat. Also alles kein Problem, auch während dem Parity-Build nicht.

    Heute morgen muss unRAID dann aber den Mover gestartet haben und es wurden sehr viele sehr kleine Dateien ins Array geschrieben, was dann den Parity-Build komplett ausgebremst hat. Habe dann den Mover fertig laufen lassen, bis der Cache wieder leer war und dann Parity fortgesetzt. Dann ging es mit über 200MB/s los. Aktuell ist es aber wie gesagt wieder runter, was mit über 100MB/s aber dennoch akzeptabel ist.


    Wie ihr sehen könnt, stehe ich bei 13,9 TB und somit vor einem wichtigen Meilenstein. Zwei von vier, bzw 2 von 3, wenn ich das Parity-Drive nicht zähle, sind 14TB Platten. Wenn die 14 TB also erreicht sind, schalten sich zwei Platten ab. Danach machen die beiden 16er dann den Rest unter sich aus. Das sollte dann nochmal einen kleinen Boost geben, hoffe ich.

  • Bei mir bricht die Übertragungsrate immer komplett ein, wenn ich mit Rsync veränderte/gelöschte Daten mit dem Server synchroniere. Da ich mit der Backup-Funktion von Rsync arbeite, werden die Daten vor dem Überschreiben oder Löschen auf eine separate Festplatte kopiert.

    Ich habe keine Ahnung, wie Rsync im Hintergrund arbeitet, aber die Datenrate liegt dann nur noch bei ca. 15 Megabyte/Sekunde ein. Da kann ein Backup schon einige Zeit in Anspruch nehmen. :(

  • Bei mir bricht die Übertragungsrate immer komplett ein, wenn ich mit Rsync veränderte/gelöschte Daten mit dem Server synchroniere. Da ich mit der Backup-Funktion von Rsync arbeite, werden die Daten vor dem Überschreiben oder Löschen auf eine separate Festplatte kopiert.

    Ich habe keine Ahnung, wie Rsync im Hintergrund arbeitet, aber die Datenrate liegt dann nur noch bei ca. 15 Megabyte/Sekunde ein. Da kann ein Backup schon einige Zeit in Anspruch nehmen. :(

    Muss ich noch testen. Aktuell läuft ja der Parity-Build noch. Aber eigentlich sollte der Cache das abfangen. Ist bei dir denn auch unRAID im Einsatz oder nutzt du was anderes?

    Ich habe trotzdem mal getestet und während der Build noch läuft, ist das die Geschwindigkeit. Für 2.5G natürlich zu wenig. Aber ich habe auch noch nichts optimiert und eingestellt. Das gehe ich dann heute Abend alles an. Mein Ziel wären schon 200MB/s, was ich auch für realistisch und möglich halte.

    Update:

    Laut iperf tatsächlich realistisch:

  • Wenn M2.SSD benutzt werden fahren die auch bei Dauerlast nach einiger Zeit automatisch den Speed herunter um Überhitzung vorzubeugen. Das kann auch daran liegen. Besonders die Samsung 990 Pro macht das gerne.

  • Einen Cache habe ich nicht. Wie schon weiter oben geschrieben hast, ist das auch eher für den Erstaufschlag relevant. Bei regelmäßigen Backups sind die Datenmengen überschaubar und ich muss ja nicht danebenstehen. Deshalb bin ich der Sache auch nooh nicht nachgegangen. ;)

    Bash
    #!/bin/sh
    
    Datum=`date +"%Y-%m-%d--%H-%M-%S"`
    logfile="$HOME/Dokumente/Backup/Logs/$datum--backupserver.log"
    info="COPY2,DEL2,NAME1,BACKUP2,REMOVE2,PROGRESS,SKIP2,STATS1"
    
    rsync -rtbPh --info=$info --delete --numeric-ids --log-file=$logfile --backup-dir=$restoredir/Dokumente/ --suffix=.$datum ~/Dokumente/ $backupdir/disk1/Dokumente

    Möglicherweise muss ich noch etwas an meinem Rsync-Befehl feilen. Ich logge den Backup-Prozess mit (--info) und füge noch das Datum als Suffix an (--suffix). Vielleicht liegt hier die Bremse?

  • Da hätte ich Vorschläge.

    fängt schon mit den richtigen Shebang an ;)

    Datum - datum # konsequente Kleinschreibung

    Was man noch machen könnte:

    • Fehlerbehandlung - Prüfung ob Variablen und Verzeichnisse existieren
    • Log-Verzeichnis erstellen - verhindert Fehler wenn es nicht existiert
    • Pfade in Variablen
    • Rückmeldung ob Backup erfolgreich war
    • Backup-Versionen in Unterordnern

    sorry, ich habe gerade ein Backup-Manager fast fertig und musste mich genau damit herumschlagen ;)

    Static Badge GitHub-Projekte Static Badge

  • Zur Optimierung:

    --implace überspringt die Erstellung einer temp Datei und schreibt direkt in die Zieldatei. Das hat Geschwindigkeitsvorteile, jedoch auch das Risiko das bei Abbruch Daten beschädigt werden könnten. Die Erzingung nur ganze Dateien zu kopieren wäre der Parameter --whole-file.

    Static Badge GitHub-Projekte Static Badge

  • Ich habe irgendwie das Gefühl, dass sich das schon wieder erledigt hat. Also technisch bin ich echt zufrieden, aber ich komme mit den Geräuschen nicht klar.

    Das ist irgendwie so, als würden sich die Laufwerke gegenseitig beeinflussen. Ist schwierig zu erklären, aber je nachdem welches läuft, bzw welche Kombination, ergibt das eine ganz eklige Vibrationen und ein regelrechtes Pfeifen. Das wollte ich ignorieren, es nervt mich aber mehr und mehr.

    Wenn ich das Gerät anfassen bzw bei einer bestimmten Platte gegen den Slot drücke, wird es besser. Aber dann fängt es direkt wieder an.

    Habe schon Gewicht auf das Gehäuse gelegt, Platten untereinander getauscht, Schnellverschluss gegen Schrauben getauscht,usw. Aber die Geräusche kommen immer wieder und da es das Wohnzimmer ist, nervt es extrem.

    Ich fürchte, das war ein schöner Test, mehr aber auch nicht.

  • Ich hatte das früher einmal mit 3x7200er und 2x5400er Hdd's in einem Gehäuse, die haben sich Gegenseitig durch ihre Eigenvibrationen quasi hochgeschaukelt, das hat auf Dauer eine sehr komische Dynamik entwickelt bis ich die getrennt habe. Gummilagerung half nur sehr wenig.

Participate now!

Don’t have an account yet? Register yourself now and be a part of our community!