Homeserver

Hat jemand von euch Erfahrung mit dem Einrichten oder Betrieb eines Heimservers? Ich habe mit Unraid und einem Thunclient (Dell Wyse 5070) experimentiert, würde aber jetzt eigentlich gerne einen kleinen Server mit einem Ubuntu Server Betriebssystem und ein paar Apps aufsetzen.

Meine Fragen wären:

  1. Selbstbau oder fertig NAS z.b. Ugreen
  2. Docker oder Podman?
  3. Nutzt ihr VMs und wofür?

Ich würde gerne eine Nextcloud selbst hosten und mir idealerweise eine Windows VM installieren auf die ich mit meinem Linux Laptop zugreifen kann.

Ganz persönlich habe ich ein NAS von Synology (ein relativ altes DS918+), nutze das aber als File und Medienserver (Plex).
In der Anschaffung war das jetzt auch nicht billig, ich denke damals an die 2000€, (Gerät an sich, 4 * 12TB Platten, 2 * 256GB NVNe als Cache und das alles in 2019) aber für meinen Anwendungsfall tut es das.
Für deinen Anwendungsfall würde das auch gehen, persönlich würde ich mir aber einen gebrauchten (File)server kaufen. Der bietet einfach größere Flexibilität. Dann hast aber wieder drei bis vier Probleme:

  • Riesig und schwer und ein Scheiß-Format (ich rede hier immer von Rack-Geräten. Tower hat ja kaum wer)
  • Stromverbrauch
  • Lautstärke
  • Teure Ersatzteile

Die Alternative wäre selber bauen aber dann bist du auch wieder auf Neuteile angewiesen und das wird auch kein Schnapper.
Dann könnte man sich auch einen z.B. DELL T160 anschauen. Der würde die zumindest 3 Jahre Sorglosigkeit für 2000€ bringen.

Hi,

nutze auch ein Synology (bzw. eigentlich sind es zwei). Das Hauptgerät ist eine 423+ mit zwei HDD und 2 SSD. Hatte auch mal VMs drauf laufen, aber konnte unterdessen wirklich alles in Docker umsetzen. Hauptsächlich läuft hier die Smarthome-Steuerung (OpenHAB), Dokumentenverwaltung (PaperlessNGX), Medienserver (Jellyfin), die dazugehörigen Datenbanken und ein paar Experimente (Zabbix, changedetection, …). Reicht von der Performance vollkommen aus und ich muss das nicht alles selbst zusammenbasteln.

Ob ich jetzt noch mal Synology auswählen würden oder UGREEN könnte ich nicht mit Gewissheit sagen, da hat sich wirklich viel getan. Habe das allerdings jetzt einmal alles gut laufen (inkl. internem/externem DNS, Zertifikaten, usw. - daher bleibt es erstmal so :slight_smile:

Viele Grüße
Dominik

Also bei dem Anwendungsfall empfehle ich Eigenbau. Allein für die Windows VM wird schon ordentlich RAM benötigt, und performant sollte die CPU auch sein. Außerdem sollte die CPU i686 fähig sein. Da dürfte jeder Selbstbau billiger sein. Ist dann aber alles nicht so bequem.

Hinsichtlich Docker oder Podman würde ich letzteres empfehlen, da es kompatibel zu Docker ist und keinen Daemon mit root Rechten braucht. Aber ist eher Geschmackssache. Vielleicht hatte hier auch jemand negative Erfahrungen mit Podman. Würde mich interessieren.

Klasse vielen Dank!

Ich denke ich warte Mal auf die Bauvorschläge in der kommenden CT, die haben da hoffentlich auch einen stromsparenden Server dabei. Paperless ist auch eine sehr gute Idee.

Neben meinem QNAP NAS hatte ich jahrelang einen Raspberry Pi.
Der Pi hatte damals mehrere Dienste vereint:

  • Pi-Hole für DHCP mit eigener Suchdomäne (die Fritzbox ist fix auf fritz.box limitiert), sowie DNS mit Adblocker
  • ZNC, ein IRC Bouncer
  • SyncThing, damit ich Sync-Konflikte drastisch reduzieren kann weil quasi immer mindestens ein Node online ist
  • Samba Fileserver damit mein Netzwerkdruckerscannerfaxgerät quasi direkt in mein SyncThing-Verzeichnis scannen kann
  • Home-Assistant zur Heimautomatisierung

Auf dem NAS lief neben dem obligatorischen Fileserver auch noch ein TeamSpeak-3-Server.

Das Problem war: wenn ich an einem der Dienste rumbastle, und mal neustarten muss, sind alle Dienste temporär weg. Insbesondere doof, wenn währenddessen auch der Internetzugang effektiv nicht funktioniert. Auch gab es manche Dienste, namentlich TeamSpeak, nicht für ARM, sonder nur x86, weswegen das auf dem NAS lief. Zusätzlich doof: wenn sich jemand mit dem Server verbinden wollte, hörte ich hier erstmal, wie die Festplatten anliefen. Dauerte lange genug für einen Timeout, und es brauchte meistens einen zweiten Verbindungsversuch, der dann aber recht unmittelbar klappte.
Irgendwann war dann Home-Assistant zerballert, ich weiß gar nicht mehr, warum. Ich bekam es aber nicht mehr zum laufen, und so generell war der Pi dazu auch etwas untermotorisiert.

Deswegen habe ich mir für knapp über 100 Euro einen gebrauchten Dell Wyse 5070 Thinclient besorgt, und darauf Proxmox Virtual Environment, kurz Proxmox oder PVE, installiert. Per Helper-Script kann man auch recht komfortabel den Nag-Screen entfernen, sowie das Enterprise-Repository, auf das man ohne Lizenz keinen Zugriff hat, und so weiter. Natürlich gilt: wer Proxmox wertschätzt und kann, kauft bitte eine Lizenz. :-) Aber laufen tut’s auch ohne, und ich bin bisher noch an keine Grenze gestoßen, wo ich den Enterprise-Kram gebraucht hätte.

Jedenfalls: Ich habe mir je einen Container und eine VM mit Arch Linux gebaut. Basierend auf denen dann Container und VMs mit den oben genannten Diensten.
Ausserdem noch eine VM mit Windows 2000 Server, die ich sehr gelegentlich mal anwerfe um dort einen uralten Chatbot mit IRC-Interface zu hosten, der auf meinem Twitch-Kanal die Leute irritiert.
Home-Assistant hatte ich ebenfalls per Helper-Script installiert, meine ich, und es läuft jetzt als „offizielle“ VM (vorher nur den Programmteil unter Arch Linux on ARM auf dem Raspberry Pi, was nicht offiziell unterstützt und auch etwas hakelig war).

Ich benutze übrigens Arch, damit ich mir größere manuelle Eingriffe bei großen Releases erspare. Einfach einmal die Woche Updates installieren, und gut ist. Das habe ich semi-automatisiert per Ansible; da wird dann fast alles aktualisiert und neugestartet.
Proxmox selbst ist leider kein Rolling Release, und erforderte seit meiner Installation ein großes Update mit manueller Arbeit. Dafür habe ich in meinen alten Mac Pro eine zusätzliche, alte Festplatte eingesteckt, auf der ich ebenfalls Proxmox installiert habe. Die zwei Server habe ich dann in ein Cluster gepackt. Jetzt muss ich zwar bei Updates immer beide Rechner laufen haben, aber dafür kann ich meine Pi-Hole-VM dann mal eben live umziehen, während ich erst den einen und dann den anderen Server aktualisiere. Andere Benutzer im LAN kriegen das gar nicht mit.
Generell sind alle Dienste/Server separiert, und werden automatisch wöchentlich gesichert. Wenn dann mal ein Update fehltschlägt (kam schon vor), kann ich notfalls die Sicherung wiederherstellen, das dauert dann ein paar wenige Minuten, und es geht weiter.

Als Storage nutze ich bevorzugt den internen Speicher der Nodes, aber ich spiele auch mit dem Gedanken, den freien Slot im NAS mit einer SSD auszustatten, und dort die virtuellen Festplatten zu hinterlegen. Hätte den großen Vorteil, dass das migrieren von VMs/LXCs zwischen den Nodes nicht mehr 2-5 Minuten dauern würde, sondern quasi instant wäre. Zumindest bei LXCs, die gehen nur offline migrieren. VMs hingegen live.

Mit Docker will auch mehr spielen; ich benutze das bislang nur am Desktop und Laptop für gelegentlichen Kleinkram. Mittelfristig will mir dafür eine VM aufsetzen. Aber so richtig Bedarf hab ich aktuell halt nicht, und der Thinclient kam mit nur 8 GiB RAM, und das wird bereits so langsam eng. Muss da schon mit Ballooning tricksen.

Ich bin ja ein großer Fan von „Basteleien“ und find den Ansatz und die beschriebene Ausführung Klasse.
Trotzdem ist der Aufwand halt, je nach Wissensstand, titanisch. Persönlich habe ich nur Erfahrung mit Synology Virtual Machine Manager, aber ich denke alle kochen mit Wasser und die Platzhirsche dürften ähnlich sein (okay, UGREEN vielleicht etwas komplizierter).
Für mich wäre das der Weg des geringsten Widerstandes. Leider ist das RAM, zumindest bei meiner DS918+, der limitierende Faktor. Im Maximalausbau wären wohl offiziell 16GB machbar. Bei neuen 4Bay+ Modellen, mit AMD Ryzen V1500B, sind 32GB realisierbar.
So wäre die Windows VM und das nextcloud docker image innerhalb von 2 bis 4 Stunden betriebsbereit.

Kleiner Nachtrag: was ich auch nicht mehr wollen würde, ist so ein Fertig-NAS. Das ist für den Einstieg ganz nett, aber ich stieß hier schnell an Grenzen. Zusätzliche Software, etwa Borg-Backup, muss vergleichsweise aufwändig nachinstalliert werden. Also erst entware-std, einen semi-gut gepflegter Paketmanager, und darüber dann Borg. Oder man nimmt die Standalone-Variante, die ist aber statisch gelinkt und kann daher auf meinem NAS nicht in mehr als einer Instanz parallel betrieben werden. Wenn dann zwei Backups gleichzeitig starten, schlägt das zweite Fehl, und die Rückstände vom Entpacken in /tmp muss ich manuell entfernen. Doof.
Dann gab’s mehr als einmal das Problem, dass es bei entware-std ein Update für Borg gab, das wurde aber offenbar nicht groß getestet, denn es lief dann rund ein halbes Jahr nicht. Als Workaround halt besagte Standalone-Version mit den genannten Nachteilen.
Ausserdem gibt’s nach 10 Jahren keine Firmware-Updates von QNAP mehr. Das finde ich, ehrlich gesagt, nicht tragbar, auch wenn viele Tech-Firmen ihre Nutzer inzwischen dahingehend erzogen haben, dass man halt ständig neue Hardware kauft, obwohl die alte noch perfekt funktionieren würde, wenn man denn wollte. Siehe Apple und Android.
Wenn ich mein NAS irgendwann ersetze wird der Nachfolger ein 0815-Mini-PC in einem Gehäuse mit 2-5 Laufwerksschächten, auf dem ich dann irgendein Linux installiere, das für NAS-Betrieb gedacht ist. Oder halt einfach Arch und ich kümmer mich selber um alles. ;-)

Ich habe ein Synology DS224 NAS und nutze es als Medien- und File-Server. Als Festplatten verwende ich zwei Seagate Iron Wolf Pro NAS 8 TB. Eingestellt sind die als RAID Typ 1.
Ich habe damals ca. 800,00 € für den Server mit den Festplatten bezahlt und später nur den RAM ausgewechselt/aufgerüstet. Das war aber kein horrender Betrag.

Ich streame Musik zu meinem Windows PC (auf dem PC nutze ich MusicBee) und zu meinen Sonos-Geräten.

Daneben verwende ich das als File-Server, vor allem für Treiber, meine Offline-Installationsdateien von GoG, Dokumente, Bilder usw.

Das ist mein erstes NAS. Ich habe das jetzt seit fast genau zwei Jahren. Einrichtung ist mir damals sehr leicht gefallen. Ich finde mich aber seit jeher in IT-Angelegenheiten ganz gut zurecht.
Für meine Zwecke reicht das völlig aus.

Zum Thema Docker oder Podman kann ich nichts sagen. Ich verwende keins von beidem. Meine VMs liegen auf einer SSD, die direkt in meinem PC eingebaut ist. Ich hatte bisher keinen Bedarf die VMs über das Heim-Netzwerk verfügbar zu machen.

Im Paket-Zentrum (so eine Art App-Store) meines NAS wird mir aber nur Docker angezeigt:

Bei mir im Keller werkelt ein NAS der Marke Eigenbau.

Als Gehäuse habe ich mir ein Jonsbo N4 gekauft. Der Rest der Hardware ist (bis auf die HDDs) gebraucht zusammengekauft. Als OS habe ich Open Media Vault darauf laufen.

Mit dem dortigen Compose-Plugin lasse ich - neben den SMB Share - meine übrigen Anwendungen darauf laufen. Das sind Paperless NGX, Nextcloud, JDownloader. Davor hatte ich ein Synology. Die Bedienung war da natürlich deutlich einfacher, die Hardware-zu-Preis-Ratio hat mich dann aber in Richtung Selbstbau getrieben.

Bin eigentlich sehr zufrieden damit.

1 „Gefällt mir“

Ein allgemeiner Typ für Einsteiger: RAID ist kein Backup! RAID ist Verfügbarkeit; wenn eine der Festplatten mit einem Defekt ausfällt, kann man sie im laufenden Betrieb durch eine neue ersetzen, und die Daten werden rekonstruiert. Aber wenn man sich irgendwie irgendwo eine Ransomware einfängt, die alles verschlüsselt wo sie dran kommt, dann gilt das auch für das RAID. Oder wenn man schlicht versehentlich was löscht, und dann feststellt, dass es eigentlich noch wichtig war.

Beim Backup verfolgt man idealerweise die 3-2-1-Strategie (oder besser): 3 Kopien auf 2 Medien wovon 1 an einem anderen Ort ist.

Ich selber würde da 3-3-1 bevorzugen, kann das aber derzeit leider nicht umsetzen. Was ich aktuell aber habe ist 3-2-0:

  • Ich habe einerseits meine „Arbeitskopie“, womit aktiv hantiere, verteilt auf verschiedene Geräte und Festplatten.
  • Die Festplatten nutzen alle BTRFS, und mit Snapper mache ich da stündlich und vollautomatisch einen Snapshot von allem. Das geht so schnell, quasi instant, das kriege ich gar nicht mit. Ähnlich schnell aber mit Tipparbeit verbunden ist da ein Restore von einzelnen Dateien oder halt allem.
  • Alle Festplatten werden zusätzlich einmal täglich mit Borg-Backup auf dem NAS gesichert, das exklusiv Backups erhält, Nutzdaten auch nur in Kopie mit wenigen unwichtigen Ausnahmen.

Für Borg habe ich ein eigenes Backup-Skript geschrieben. Es gibt allerdings grafische Oberflächen, die das ganze wohl recht einfach und übersichtlich machen. Ich wollte aber wissen, wie Borg so tickt, und mehr oder weniger das letzte bisschen Leistung rausholen. ;-)

Das schöne an Borg ist, dass die Daten standardmäßig auf dem zu sichernden Rechner komprimiert und verschlüsselt werden. Die sind diesbezüglich in meinem Fall deutlich schneller dabei, als das NAS, auf dem die Daten dann landen. Dedupliziert wird dabei auch gleich: Man mach quasi immer ein komplettes Backup, aber konkret übertragen werden nur Daten, die noch nicht im Repository vorliegen.
Man kann aber auch Borg auf dem Backup-Server einrichten, die zu sichernden Rechner über’s LAN ansprechen, und die Daten ziehen. Dann kommt da auch erstmal so schnell kein Ransomware-Angreifer dran.
Oder man kann die Repositories so anlegen, dass keine Archive (= Snapshots) gelöscht werden können. Dann braucht man aber viel Platz und muss vielleicht irgendwann doch nochmal von vorn anfangen.

2 „Gefällt mir“

Dein Beispiel zeigt schon ganz gut, wie man sehr einfach mit Standardmitteln gute Funktionen haben könnte, so ein Fertig-NAS-OS diese Möglichkeiten aber erschwert.

Ich hatte zum Beispiel mal die Idee, meine Fotos auf meinem Synology-NAS in ein GIT zu legen. Dann könnte man versehentliche Löschungen einfach rückgängig machen usw.
Das wäre mit einem „normalen“ Betriebssystem 0 Aufwand. Über die Konsole kriegt man das auf dem Synology auch schnell eingerichtet. Aber das beißt sich mit allem anderen, was Synology vorgibt. Und dann kann man besser alles selber machen.

Oder sowas simples wie Dateirechte. Auf einem normalen Rechner könnte ich im Foto-Ordner die Schreibrechte für die Unterordner der vergangenen Jahre entfernen. Kann man bei Synology auch anklicken. Aber das hat dann je nach Zugriff (web-Oberfläche, Share) unterschiedliche Bedeutungen und so könnte ich dann doch wieder versehentlich alte Fotos löschen.

1 „Gefällt mir“

Ich arbeite viel mir Homeservern und NAS.

Wenn du alles jn ein Gerät packen willst, bau die nen Unraidserver.

Ich Persönlich hab nein System gespalten, ein NAS von Synology ist mein Datengrab und mach alle Backups von PC Handy und Servern.

Für alles was Leistung braucht hab ich mir nen Proxmox Server gebaut.

Alles schön in CT / VM und Dockercontiner gepackt.

So sind die Dateien aber auch die Server besser vor Ausfällen geschützt.

1 „Gefällt mir“

Ich nutze einen Selbstbau. Wenn Du viele Platten haben möchtest gerne einen Desktop oder einen SFF-PC mit einem DAS:

Das könntest Du in der ersten Ausbaustufe auch mit dem Thinclient probieren.

Das halte ich für nicht so wichtig. Solange Du die Frage stellst, ist es vielleicht einfacher bei der verbreiteteren Lösung docker zu bleiben.

Zum Aufteilen. Mein Server läuft mit Proxmox und darin hab ich dann Debian VMs (und noch von früher eine Ubuntu VM) oder LXC.

Generell bin ich von einem Debian Fanboi Ende der 90er/Anfang 2000er zu Ubuntu gewechselt, weil das LTS großartig war und mir über ein Jahrzehnt gute Dienste geleistet hat. Seit 18.04 oder 20.04 ist mir vieles zu nervig geworden, die Werbung für den eigenen Pro-Plan, snaps und anderes. Ich bin zurück zu Debian gewechselt und bin dort sehr zufrieden. Sogar mein Gaming-PC läuft aus meiner Sicht wunderbar mit Debian.

2 „Gefällt mir“

Ich sehe inzwischen immer weniger, warum man Applikationen direkt auf einem System laufen lassen sollte… Sofern möglich würde ich eigentlich alles in einen eigenen Container (oder VM, etc.) packen um mich vom OS des Hosts zu lösen.
Persönlich würde ich auf Typ 1 Hypervisoren setzen, greife privat aber auch auf den Typ 2 zurück.
Beides hat eigentlich nur Vorteile: Einfaches Backup/Restore, keine Co-Abhängigkeiten, …
Als einzigen Nachteil sehe ich, vor allem beim Typ 1, das man in VMs immer ein OS hochbooten muss und dadurch primär RAM verliert. Bei Containern fällt nicht mal mehr das gravierend ins Gewicht.
PS: Im Privatbereich sehe ich die geteilten Ressourcen jetzt weniger als Sicherheitsrisiko.

2 „Gefällt mir“

hatte viele Jahre Unraid. War super zufrieden damit.

Ich nutze einen Intel NUC mit zwei großen SSDs drin und Ubuntu LTS drauf.

Das meiste läuft da direkt im Userspace: MariaDB, Nextcloud, NFS, die UniFi-Software, Jellyfin. Nur HomeAssistant und meine selbstgebaute Raumtemperatur-Überwachung läuft in einem Docker.

Verschlüsseltes Backups laufen per Rustic auf eine externe Festplatte und von da als Offsite-Backup zu dem Dienst Jottacloud.

1 „Gefällt mir“

Was hat dich denn dazu bewegt von Unraid wegzugehen, und womit bist du jetzt unterwegs?

Ich betreibe selbst seit rund anderthalb Jahren einen Unraid Server. Habe noch eine der früheren Lifetime-Lizenzen ergattert, heute ist das ja tendenziell eher eine Abo-Lösung.
Angefangen hat das als Testprojekt auf einem i5-4690, 32 GB RAM und einigen SSDs und HDDs. Und dabei ist es im Wesentlichen auch geblieben, nur dass die Kiste jetzt produktiv läuft. Der Hardware-Unterbau ist sicherlich nicht optimal, aber er war da, reicht für meinen / unseren Einsatzzweck vollkommen aus und zieht in der Regel auch keine Unmengen an Strom aus dem Netz.

Mit dem System stelle ich erstmal Speicherplatz für das heimische Netzwerk bereit (wir sind 4 Personen im Haus), diverse Shares für diverse User oder auch dedizierte Anwendungsfälle wie z.B. Mediendateien.

In der integrierten Dockerumgebung laufen dann diverse Dinge, wesentlich wären da:
Paperless-ngx - Dokumentenarchiv, hier digitalisiere ich alle archivierungswürdige Eingangspost rein, oder lege bereits digitale Eingangspost für ab. Hat eine einfache Ordnerstruktur abgelöst.
Immich - eigene Photo(-Cloud). Sync vom Handy direkt drauf. Hat Google Photos als Backup / Cloud schon abgelöst, ich hadere noch etwas auch die Apple Photos dort rein zu schieben.
Duplicati - Backup-Lösung, die unter anderem wichtiges auch extern auf eine Hetzner-Storagebox schiebt.

Dazu läuft dann je nach aktueller Stimmungslage noch ein Gameserver für Familie und Freunde. Auch jeweils im Docker.
Es gibt Ausnahmen, wie z.B. ARK Survival Ascended, die keinen nativen Linux Server anbieten, d.h. Im Docker läuft dann eine Windows-Umgebung und darin dann der Server, da kommt die Hardware RAM-fertig mit einer Instanz dann schon an ihre grenzen. Alles andere löppt in der Regel problemlos.

Home Assistant habe ich auch im Einsatz, das läuft allerdings separat für sich direkt auf einem Lenovo Thin Client, den ich mal günstig für um die 70 EUR bei AfB gekauft habe.

Virtuelle Maschinen betriebe ich selten, einfachere Linux-Umgebungen macht der Unraid-Server gut mit, Unraid integriert VMs ja auch nativ. Wenn ich mal etwas mehr Power brauche mache ich das lokal auf meine Desktop aka Spiele-PC.

Habe schon ein paar mal auf eine Proxmox Lösung geschielt, um dann alles in seinen eigenen virtuellen Päckchen laufen zu lassen.. aber habe DEN Anwendungsfall für mich noch nicht erkannt. Mit der Docker-via-Unraid-Lösung fahre ich nach meinem Ermessen sehr gut.

Das ist ganz leicht. Nichts.

Ich habe saemtlich relevanten backups eh zu 100% in meiner Nextcloud. Das NAS war einfach ueberfluessig, zusaetzlich habe ich ueber die Jahre auch realisiert, dass ich diesen ganzen “Archiv” Daten nicht brauche (games, musik, filme etc) Ich habe die 15 Jahre oder so mitgeschleppt und einfach nie genutzt. Also rm -rf /nas und die Hardware (War ein HP Enterprise Desktop Server mit i5, 16gb ecc ram, 2 cache ssds und 4 wd reds) verkauft.


Braeuchte ich wieder ein NAS wuerde es aber wieder Unraid werden.


paperless-ngx auch absolut “goated” wie die Jugend sagt. Nur BACK UP, ich hab mir die sqlite zerschossen und gute Nacht. Die Dokumente sind zwar da aber, aber das “Verwaltungsdrumherum” war nicht rettbar.

1 „Gefällt mir“

Das ist natürlich ärgerlich. Ähnliches ist mir auch schon passiert. Da hat mir Proxmox jeweils den Hintern gerettet, dank der automatischen Backups der VMs/LXCs. :-)

1 „Gefällt mir“