Absichern eines root / vServers – Allgemein

Wie ich bereits geschrieben habe, läuft mein Blog nun auf einem vServer.

Grund für den Wechsel war nicht der Blog, sondern einfach diverse Einschränkungen, welche man mit einem normalen Webhosting Angebot hat. Und Einschränkungen mag ich gar nicht. 😉

Bevor man sich allerdings einen vServer bzw. root Server anmietet, sollte man sich schon darüber im Klaren sein, dass man hierbei deutlich mehr Verantwortung trägt und einiges mehr machen muss als bei einem Webhosting Paket. Wer also lediglich eine Internetpräsenz zu Verfügung stellen will und Linux maximal mit einer Benutzeroberfläche kennt, sollte die Finger von root Servern lassen!! Auch wenn Webhoster das gerne mal als Kinderspiel verkaufen wollen. Ein root Server hat keine Oberfläche! Und so wie man den Server zu Verfügung gestellt bekommt, ist er ein leichtes Ziel für Angriffe aus dem Netz.
Auch wenn man sich vielleicht denken mag: „Wer soll schon MEINE Seite hacken, da ist doch nichts interessantes drauf“… Es geht nicht nur um den eigenen Inhalt, sondern auch darum Inhalte zu verteilen, welche man selbst gar nicht kennt… Die Angreifer haben nämlich gerne das Ziel, deinen Server zu übernehmen und diesen dann als Spam Schleuder im schlimmsten Fall sogar zu Verbreitung von Kinderpornos zu missbrauchen.

Rate wer für solche Dinge haftet! Genau, DU!!

Hat man die Auswahl zwischen verschiedenen Betriebssystemen (ich meine Linux Distributionen, Windows ist kein OS! 😉 ) sollte man sich für ein stabiles Debian entscheiden. Auf dem Server geht es nicht um den „neuesten Scheiss“, sondern um Stabilität und Sicherheit! Und genau hier glänzt Debian.

Wenn man allerdings seinen root Server das erste Mal startet ist das System vermutlich bereits nicht mehr auf dem neuesten Stand… Somit sollte der erste Schritt der folgende sein (hier am Beispiel von Debian):

apt-get update
apt-get dist-upgrade

Hierdurch hat man sein System erstmal auf dem aktuellen Stand in Sachen Softwareversionen und Sicherheitsupdates.

Und nochmal: Nach der initialen Installation ist euer Server alles NUR NICHT SICHER!
Man sollte einige Einstellungen und Konfigurationsänderungen vornehmen.

Ich gehe folgendermaßen dabei vor: Bis der Server nicht soweit konfiguriert ist, bringe ich ihn auch nicht mit Blog, CMS, Internetpräsenz oder sonstwas an den Start, bzw. leite ich noch keine Domain auf ihn um. Gerade am Anfang konfiguriert man viel und vielleicht hier und da auch mal in die falsche Richtung, sodass nichts mehr funktioniert. Dann heisst es nur: Neuaufsetzen. Damit das nicht zu einer nervenden Tätigkeit wird versuche ich jegliche Änderung an dem System zu verskripten. Das hat zum einen den Vorteil, dass ihr eine kleine Checkliste habt, aber auch nach einem Neuaufsetzen nicht immer wieder alles von Hand umstellen müsst und dabei sogar ggf. wichtige Dinge vergesst.

Als ruhig immer einen Editor mit eurem Installationskript offen lassen und jede Änderung ins Skript gießen, im Optimalfall sogar mit einem Kommentar, damit ihr auch später noch wisst, was ihr warum geändert habt. :-)

Wenn man sich für den verskripteten Weg entscheidet, sollte der Server genau so oft neu installiert werden bis euer Skript mehrmals fehlerfrei durchgelaufen ist.

Ich erstelle mir auch nicht nur ein Skript für die Installation, sondern auch eines, welches mir die Backups erledigt.

In der Regel gehört zur Grundausstatung eines Servers ein Webserver, PHP und eine mysql Datenbank. Jedes Puzzleteil will für sich konfiguriert werden.

Eine sehr einfache Lösung dafür ist XAMPP

Durch dieses Paket bekommt ihr eine fertig konfigurierte Umgebung mit Apache Webserver, PHP und mysql Datenbank. ABER:

Tut euch und der Netzwelt einen Gefallen und INSTALLIERT KEIN XAMPP auf eurem Server!!! Zu Entwicklungszwecken ist das natürlich geeignet, dann aber auch nur auf eurem Desktop System zum Testen, falls ihr eigene PHP Apps entwickelt.

Ich schreibe das mit XAMPP da ich in mehreren Foren darüber gestolpert bin, wie XAMPP für root Server empfohlen wurde.

Wer seinen Server vernünftig betreiben will, muss auch bereit sein, sämtliche Installation und Konfigurationen selbst zu übernehmen.

Das wars erstmal… wenn man sich mit dem Thema Sicherheit auseinandersetzt, macht so ein root Server richtig Spaß. :-)

Flattr this!

Einbinden von Cloudstorage über webdav und fstab (owncloud, HiDrive, etc…)

Wer seinen Cloud Storage gerne ins Filesystem seines Linux einbinden will, muss gar nicht so viel machen.

Zuerst muss davfs2 installiert werden, welches in allen Distros verfügbar ist.

Am Beispiel von Sabayon:

sudo equo install davfs2

Als nächstes legen wir unter home ein Verzeichnis, welches als Mountpunkt für unseren Onlinespeicher dient:

mkdir /home/{Benutzername}/cloud

Nun wird ein entsprechender Eintrag in der /etc/fstab erzeugt (Datei muss mit root Rechten geöffnet werden)

Für owncloud:

http://URL_EURER_OWNCLOUD/files/webdav.php  /home/{BENUTZERNAME}/cloud davfs  rw,user,noauto  0  0

Für Strato HiDrive:
n

https://webdav.hidrive.strato.com /home/{BENUTZERNAME}/cloud davfs rw,user, noauto 0 0

Damit davfs weiss wie die jeweiligen Authentifizierungsdaten lauten, müssen diese im Homeverzeichnis abgelegt werden.

mkdir /home/{BENUTZERNAME}/.davfs2
touch /home/{BENUTZERNAME}/.davfs2/secrets

In die frisch erstellte Datei secrets müssen nun die entsprechenden Zugangsdaten für den Cloudstorage hinzugefügt werden.
Schema: URL USER PASSWORD

Für owncloud:

http://URL_EURER_OWNCLOUD/files/webdav.php USER PASSWORD

Für Strato HiDrive:

https://webdav.hidrive.strato.com USER PASSWORD

Damit niemand ausser uns Zugriff auf die Datei secrets bekommt, muss diese noch mit den entsprechenden Rechten verarztet werden:

chmod 600 /home/{BENUTZERNAME}/.davfs2/secrets

Damit unser User nun die Laufwerke mounten kann, muss er der Gruppe davfs2 hinzugefügt werden (das Kommando dafür kann distributionsabhängig abweichen.

Für Sabayon:
n

gpasswd -a ${BENUTZERNAME} davfs2

Fertig! Nun können die Laufwerke direkt ins Filesystem eingehängt werden.

mount /home/{BENUTZERNAME}/cloud

Ihr solltet die Laufwerke aber manuell nach dem Bootvorgang mounten und nicht automatisiert, da dies nur funktioniert wenn auch die Internetverbindung vorhanden ist.

Flattr this!

Nachtrag zum Thema: owncloud für Synology NAS

Damit es nicht in den Kommentaren zum alten Artikel untergeht….

Eric aus dem Nachbarblog http://www.eg-blog.de/ hat ein spk Paket für das Synology NAS gebastelt.

Somit braucht man sich nicht mehr um die Konfiguration von owncloud kümmern und bekommt (wenn man die Quelle ins Paketcenter einträgt) auch
gleichzeitig Updates mit!

Ich hatte noch keine Zeit es zu testen, aber auf jeden Fall schonmal Danke dafür!

Flattr this!

Einbinden eines FTP Servers über fstab

Leider ist es heutzutage immer noch der Standard, dass Provider für ihren Webspace in der Regel normale FTP Zugänge anbieten. ssh und co bekommt man meistens leider erst dann wenn deutlich mehr an den Hoster gezahlt wird… Die Angebote sind dann mit „Profi.- oder Business-Paket“ betitelt.

Wer öfter mal an seiner Homepage rumbastelt, bzw. häufiger Dateien hoch und runterladen möchte, hat vielleicht nicht immer Lust einen FTP Client für jede Änderung starten zu müssen. Zumal es auch deutlich einfacher ist, Dateien zu modifzieren ohne diese vorher runter.- und danach wieder hochzuladen.

Da würde es sich doch anbieten, den FTP Server des Hosters direkt über den eigenen Datei Browser einzubinden. Und genau das ist recht einfach zu bewerkstelligen!

Installieren muss man sich nur das Paket curlftpfs. Das ist bisher in jeder mir bekannten Distribution verfügbar.

Als weitere Vorbereitung sollte ein entsprechendes Mount Verzeichnis angelegt werden.

sudo mkdir /mnt/ftpdir

nun lädt man sich die Datei etc/fstab in einen Editor seiner Wahl (Rootrechte erforderlich!).

Folgende Zeile (natürlich mit den Account Daten von eurem FTP Zugang) muss aufgenommen werden:

curlftpfs#BENUTZERNAME:PASSWORT@FTP_URL /mnt/ftpdir fuse rw,allow_other,noauto,user 0 0

Das wars auch schon. Ich habe bei mir den Eintrag mit „noauto“ hinzugefügt, da ich nicht unbedingt beim Booten schon den FTP Server mounten möchte, sondern nur bei Bedarf.

Flattr this!

NFS unter Chakra Linux

Mir war mal wieder langweilig… Darum habe ich mich nach einer neuen Distribution für mein Notebook umgeschaut. Archlinux war schon immer interessant für mich, allerdings aus Zeitmangel bzgl. Frickelarbeiten (notwendig bei Arch!) doch nie ein Kandidat für die engere Auswahl…

Letztens bin ich dann auf
den Arch Fork Chakra Linux gestoßen. Tolle Distribution die aus Arch Linux entstanden ist und mit dem KDE Desktop kommt. Schlank, schnell, stabil, neueste Software.

Mehr möchte ich gar nicht zu Chakra Linux erzählen… im Netz gibt es genug Testberichte.

Eine Kleinigkeit hat mich allerdings über zwei Stunden gekostet, sodass ich hier ein paar Zeilen schreiben möchte um anderen den Frust zu ersparen.

NFS unter Chakra

Natürlich muss man sich erstmal das Paket nfs-utils installieren. Das ist Grundvorraussetzung.

Mein Notebook ist so konfiguriert, dass die NAS Laufwerke direkt beim Booten gemountet werden.

Und hier begann der „Spaß“…

Begrüßt wurde ich mit folgenden Zeilen:

mount.nfs: rpc.statd is not running but is required for remote locking.
mount.nfs: Either use '-o nolock' to keep 
locks local, or start statd.
mount.nfs: an incorrect mount option was specified

Ok, Arch bzw. auch Chakra Linux benötigen hier und da ein wenig Handarbeit.

Also flink auf der hervorragenden Wiki Seite nachgeschlagen:
Mit Root Rechten die Datei /etc/rc.conf in einen Editor laden und den Dienst rpcbind als Daemon eintragen, damit er beim Booten auch automatisch gestartet wird.

Die Zeile sieht dann so aus:

DAEMONS=(syslog-ng network rpcbind)

Leider reichte das nicht… und nach laaanger Google Suche bin ich dann auf den entscheidenen Forenbeitrag gestoßen:

Ob es sich hier um einen Bug handelt, weiss ich nicht genau, gehe aber fast davon aus…
Man muss zwei Einträge in der Datei /etc/services ändern!

Die beiden Zeilen:

sunrpc 111/tcp # SUN Remote Procedure Call
sunrpc 111/udp # SUN Remote Procedure Call

müssen geändert werden in:


sunrpc 111/tcp rpcbind # SUN Remote Procedure Call
sunrpc 111/udp 
rpcbind # SUN Remote Procedure Call

Danach läuft NFS lupenrein!

Vielleicht erspare ich ja jemandem die lange Suche danach.

Flattr this!

owncloud auf Synology NAS / Kalendar Sync

In meinem letzten Artikel habe ich beschrieben, wie man über einen recht einfachen Weg einen Filesync, ähnlich wie bei Dropbox, auf seinem eigenen Server hinbekommt.

Heute möchte ich zeigen, wie man seine Kontakte und Kalendar Daten auf seinem eigenen Server ablegt und somit die Daten über mehrere Rechner und Smartphones syncen kann. Ich hatte bis vor kurzem mehrere Kalender bei Google liegen und nun keinen mehr. :-)

Ich nutze hierfür owncloud. Was owncloud ist, kann man sich auf der Homepage im Detail anschauen, inkl. einer Online Demo.

Hier nur kurz die Highlights:

– File Ablage im Netz, inkl. Sharing Option (WebDav)
– Verwaltung von beliebig vielen Kalendern (Sync via CalDav)
– Verwaltung von Kontakten (Sync via CardDav)
– Verwaltung von
Bookmarks
– Galerie für Bilder

Mein Beispiel orientiert sich an einem Synology NAS, allerdings ist die Anleitung auch für jeden beliebigen Server zu gebrauchen.

Benötigt wird:
– owncloud 3 -> hier downloaden
– einen Server, welcher im Optimalfall auch über das Internet zu erreichen ist.
– Am Beispiel des Synology NAS muss die Webstation aktiviert sein.
– MySQL Datenbank (beim Synology NAS ist diese vorhanden bei aktivierter Web Station)
– Spieltrieb 😉

Die Installation ist sehr schnell erledigt. Nach dem Download von owncloud wird das Archiv File auf der Disk Station entpackt. und zwar im Verzeichnis

/volume1/web/owncloud

Der Apache Webserver auf der Diskstation läuft unter dem User „nobody“. Wir müssen für den Benutzer noch ein wenig an den Rechten schrauben. Auch am Daten.- und Konfigurationsverzeichnis müssen wir die Rechte
noch ändern. Um dies zu erledigen melden wir uns als root via ssh auf der Diskstation an und setzen folgende Befehle ab:

chmod 750 /volume1/web/owncloud/data
chmod 750 -R /volume1/web/owncloud/config
chown -R nobody:nobody /volume1/web/owncloud/

Die Rechte sind nun korrekt gesetzt. Der Rest der Installation und Konfiguration erfolgt direkt über das Webinterface.

http://EURE_IP/owncloud

Über die Startseite wird dann die Installation abgeschlossen.

Folgende Schritte sind dafür notwendig:

– Anlage des Admin Account (User/Passwort)
– Einrichten der Datenbank

Per Default wird SQLite verwendet. Dies Bedarf auch keiner weiteren Schritte. Ich bevorzuge aber die Nutzung ein MySQL
Datenbank (Konfig über den Knopf „erweitert“).

Bevor es weiter geht sollte man in seiner MySQL Installation eine Datenbank und einen User jeweils mit dem Namen owncloud erstellen.

Datenbank Name, Benutzername und Passwort sollten nun als letzter Schritt über das Webinterface eingegeben werden. owncloud legt dann die benötigten Tabellen selber an.

Das war es dann auch schon. Die Installation von owncloud ist abgeschlossen. Die bedienung bzw. Nutzung ist eigentlich selbsterklärend.

Nun noch ein kleines Beispiel wie man seine Kalendar aus Google in owncloud überführt.

Export aus Google:

– Anmeldung an Google Calendar
– Dort in die Einstellungen und auf Kalendar klicken.
– In der Übersicht den gewünschten Kalender auswählen
– Dann unter „Privateadresse“ auf ICAL klicken.
– Nun hat man seinen Kalendar als ical Datei auf der Platte liegen

Import in owncloud:

– Anmeldung an owncloud
– Im Menü Dateien anklicken und die ical Datei hochladen
n- Nach dem Upload auf die Datei in der owncloud klicken
– Auswahl des Kalenders und warten bis der Import abgeschlossen ist.
– Fertig :-)

Jeder Kalender in owncloud hat eine eigene CalDav Adresse über die der jeweilige Kalender auch von externen Anwendungen wie Thunderbird, Outlook etc… bearbeitet werden kann. Die Synchronisation über mehrere rechner funktioniert tadellos!

Auch über sein Android Smartphone kann man die owncloud Kalender einwandfrei einbinden.

Hierfür nutze ich die App CalDAV-Sync

Sie kostet zwar ca. 2 Euro ist aber ihr Geld wert. Die Kalendar integrieren sich dadurch ins das Android System als ob es sich um Google Kalender
handelt.

Für mich funktioniert die Synchronisation der Kalender Daten über Rechner, Smartphone und Tablet ganz wunderprächtig. :-) Auch ist es ein weiterer Schritt in die Richtung „Meine Daten liegen bei MIR“.
Auf dem Android Gerät sieht das dann folgendermaßen aus:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Falls ihr Fragen haben solltet: Einfach melden.

Kleiner Nachtrag noch zum Synology NAS: Ich habe eines der kleinsten Modelle mit 128 MB RAM. owncloud läuft dort und es reicht auch für den Sync der Kalender. Wenn man allerdings viel mit owncloud arbeiten möchte (Bilder hochladen, Dokumente ablegen und bearbeiten, etc…) sollte
man darüber nachdenken owncloud lieber auf einem richtigen Server im Web zu installieren. Das NAS bekommt schon recht schnell dicke Backen….

Flattr this!

Eigene(r) Dropbox/Cloud Storage mit Synology NAS und Sparkleshare

Online Speicher ist schon etwas feines. Mittlerweile gibt es auch zig Anbieter, welche Speicherplatz
anbieten (Dropbox, Wuala, Sugarsync, etc…). Meistens bekommt man ein kleines bisschen Speicher sogar kostenlos, was in der Regel für ein paar Dokumente oder Bilder ausreicht. Will man mehr Speicher haben, muss man Geld bezahlen. Egal welcher Dienst, jeder hat seine Vor.- und Nachteile. Alle haben für mich aber etwas gemeinsam:

Jemand „Fremdes“ hat MEINE Daten auf SEINEN Servern.

Und genau damit kann ich mich einfach nicht anfreunden. Aus diesem Grund bin ich schon länger auf der Suche nach einer Lösung um mein NAS als Online Storage zu nutzen. Bis jetzt habe ich die Platten im eigenen Netz über NFS gemounted, sodass ich mit allen Rechnern darauf zugreifen und die Dokumente bearbeiten konnte. Von Unterwegs via
Android Telefon ging das ebenfalls über FTP, etc…

Komfortabler ist es aber die Dateien lokal zu bearbeiten, welche dann nach der Änderung automatisch zurück aufs NAS synchronisiert werden. Bei meiner Suche bin ich natürlich auch über Sparkleshare gestolpert.

Sparkleshare ist ein Open Source Client, welcher serverseitig ein GIT Repository benötigt.

Die folgende Anleitung bezieht sich auf einen Fedora Client und ein Synology NAS als Server. Für andere Systeme sollte es die Kombination an Software allerdings auch geben.

Installationsanleitung:

Einrichten des Synology NAS als Server

Vorbereitend muss das NAS in die Lage versetzt werden auch mit Fremdsoftware bestückt
zu werden.
Hier gibt es ein gutes Tutorial dazu: Installation IPKG

Ist das Paketverwaltungssystem IPKG installiert geht es weiter mit der Installation von git.

Dazu muss man sich als root via ssh oder telnet auf dem NAS anmelden. Danach werden folgende Befehle abgesetzt:

ipkg update
ipkg install git

Nach wenigen Sekunden ist die git Installation abgeschlossen.

Falls man den Connect zum git Repository mit einem speziellen User machen möchte, sollte man diesen nun über das Webinterface (DSM) vom NAS anlegen.

Wichtig ist, dass am NAS SSH Login (DSM Webinterface) aktiviert ist, da Sparkleshare über ssh mit git redet. Damit der zu nutzende User sich dann auch wirklich über ssh anmelden kann muss die Datei

/etc/passwd noch geändert werden. Ich nutze nano also Editor, allerdings spielt der Editor keine Rolle.
Im folgenden
Beispiel nenne ich den User einfach mal „Gituser“. Diesen müsst ihr dann durch den User von euch ersetzen.

nano /etc/passwd

Folgende Zeile muss geändert werden:
ALT:
Gituser:x:1026:100:Git:/var/services/homes/Gituser:/sbin/nologin
NEU:
Gituser:x:1026:100:Git:/var/services/homes/Gituser:/bin/sh

Ihr solltet euch nun testweise mit dem „Gituser“ über ssh anmelden. Wenn die Anmeldung funktioniert geht es weiter.

Als nächstes sollte über das DSM Webinterface ein neuer „Gemeinsamer Ordner“ angelegt werden. In diesem Ordner werden dann später die git Repository angelegt. Ich habe ihn bei mir GIT_REPO genannt. Wichtig ist, dass der User „Gituser“ Schreibberechtigung für diesen Ordner bekommt!

Wenn der Ordner angelegt ist und die Berechtigungen stimmen, können wir nun auch unser erstes leeres Repository anlegen. Dazu melden wir uns als Gituser über ssh an und legen ein neues Unterverzeichnis im GIT_REPO Ordner an.

mkdir -p /volume1/GIT_
REPO/Test

Nun wechseln wir in das Verzeichnis und erzeugen ein leeres Repository:

cd /volume1/GIT_REPO/Test
git init --bare

Damit haben wir unser erstes Repository und auch die ersten Arbeiten auf dem NAS abgeschlossen.

Einrichten von Sparkleshare auf dem Client:

Für Fedora sind folgende Zeilen in einem Terminal abzusetzen:

sudo curl -o /etc/yum.repos.d/sparkleshare.repo http://repos.fedorapeople.org/repos/alexh/sparkleshare/fedora-sparkleshare.repo
sudo yum install sparkleshare

Wie bereits erwähnt beziehe ich mich hier nur auf Fedora. Sparkleshare gibt es aber auch für andere Distributionen.
Die Installation auf dem Client ist damit abgeschlossen. Nun geht es an die Konfiguration.

Sparkleshare installiert sich als Dienst welcher über

sparkleshare start

starten, über

sparkleshare stop

anhalten und über

sparkleshare restart

neustarten
lässt.

Nach dem ersten Start von Sparkleshare wird man aufgefordert seinen Namen und eine EMail Adresse einzugeben. Danach läuft der Dienst, welcher aber noch keine Repositories überwacht.

Wir fügen nun ein Repository hinzu über das Tray Icon von Sparkleshare (Menüpunkt „Füge ein gehostetes Projekt hinzu“. Folgender Dialog erscheint:

Repository einrichten

Da wir unseren eigenen Server nutzen wollen, wählen wir „On My Own Server“.
Als Adresse muss die IP des NAS eingetragen werden. Sparkleshare nutzt per default den Namen git, welcher beim Connect vor die IP gestellt
wird. In unserem Beispiel haben wir aber den User Gituser vorgesehen, somit müsste der Eintrag für die Adresse wie folgt aussehen:

Gituser@IP_VON_EUREM_NAS

Der entfernte Pfad sieht dann so aus (wie in unserem Beispiel angelegt):

/volume1/GIT_REPO/Test

Nun klicken wir auf „Hinzufügen“, warten einen Moment und hoffen, dass eine Erfolgsmeldung kommt.

Damit man nicht immer ein Passwort für den ssh Connect eingeben muss, generieren wir uns nun ein ssh Schlüsselpaar und übetragen den Schlüssel auf das NAS.

Dies erfolgt so:

ssh-keygen
ssh-copy-id Gituser@IP_VON_EUREM_NAS

Auf dem Server entsteht folgende Datei mit den bekannten ssh Schlüsseln:

/volume1/homes/Gituser/.ssh/authorized_keys

Diese öffnen wir mit einem Editor unserer Wahl.

Auf dem Client öffnen wir die Datei:

/EUER_HOMEVERZEICHNIS/.config/sparkleshare/sparkleshare.EURE_EMAIL_ADRESSE.key.pub

In dieser Datei steht der ssh Schlüssel für Sparklshare. Diesen
kopieren wir als neue Zeile in die geöffnete Datei authorized_keys.

Dadurch sollte Sparkleshare sich nun über ssh mit eurem Server verbinden können, ohne dass ihr ein Passwort eingeben müsst.

Das war es dann auch. Ab sofort sollten alle Dateien aus eurem lokalen Ordner im Hintergrund auf das NAS übertragen werden. Will man das Repository auf mehrern Rechnern nutzen, muss die Client Installation und ssh Konfiguration pro Rechner wiederholt werden.

Das ganze funkioniert bei mir auch recht zuverlässig. Der Dienst hat sich zwar schon ein paar Mal verabschiedet, aber ein Datenverlust ist mir bisher nicht entstanden.

Falls ihr Fragen habt oder ich etwas vergessen, meldet euch einfach.

Als nächstes werde ich dann mal owncloud ausprobieren. :-)

Flattr this!

Synology NAS mit neuer Firmware DSM 4.0

Genau wie avm mit ihrem Fritz!OS Update hat nun auch Synology eine neue
Version ihrer Firmware mit dem Namen DSM 4.0 am Start. Diese Version gab es schon länger als Beta Version zum Testen. Nun ist sie allerdings offiziell erschienen. Ich habe mir die neue Version am Wochenende mal installiert.

Die Installation lief zwar fehlerfrei durch, allerdings musste ich noch ein wenig nachbessern bis mein NAS wieder fehlerfrei lief. Ich muss allerdings auch gestehen, dass ich auf meinem NAS deutlich mehr Modifikationen laufen habe, als zum Beispiel auf meiner Fritzbox.

Probleme hatte ich mit dem Medienserver der durch das Update keine Dateien mehr gefunden hatte. Ich musste also die Indizierung der Mediendateien neu anstoßen was natürlich etliches an Zeit benötigt. Ferner greife ich über NFS auf die Platten zu was nach dem Update auch nicht mehr funktionierte. Hier musste man über das Webinterface einmal den NFS Dienst beenden und
wieder starten.

Ich habe nur ein kleines Modell, sodass ich nicht in den Genuss aller neuen Features komme.
Das Webinterface wurde deutlich überarbeitet und bietet nun die Möglichkeit über kleine Widgets direkt den Status des NAS abzulesen. Ein Highlight ist sicher auch der neue Dienst Cloud Station. Dieser soll in Zukunft ermöglichen seinen eigene Onlinefestplatte ala Dropbox zu nutzen und die Dateien über mehrere Rechner hinweg zu synchronisieren. Der Dienst ist allerdings noch im Beta Status und die dazugehörigen Clients bisher nur für Windows verfügbar. Dennoch klingt das schon sehr vielversprechend zumal ich absolut kein Freund von diesen ganzen Onlinefestplatten bin. Da hat die eigene Cloud Platte doch erheblich mehr Charme, da ich weiss wer auf meine Daten zugreift.

Genauso wie AVM arbeitet auch Synology kontinuierlich an neuen Features für ihre Geräte, absolut LOBENSWERT!

Wer noch etwas zögerlich ist, kann die neue Version von DSM 4.0 auch erstmal online ausprobieren:

nDSM 4.0 Live Demo

Flattr this!

Sabayon 8 erschienen: Bleeding Edge rocks! ;-)

Mit der Linux Distribution Sabayon liebäugel ich ja schon seit längerem.

Rolling Release, immer die aktuellste Software und trotzdem stabil… Das klingt wunderbar!

Der letzte Snapshot der erschienen ist, lief allerdings bei mir nicht so einfach „Out of the Box“. Hier mein Bericht: Sabayon 7

Am Wochenende habe ich mir nun Sabayon 8 (mit KDE Desktop) auf meinem Notebook installiert.

Bis jetzt bin ich mehr als begeistert! Nicht nur, dass man mehr oder weniger immer die aktuellsten Versionen der eingesetzten Software am Start hat. Einige Tools die ich einsetze sind entweder nicht quelloffen oder aber noch nicht in den jeweiligen Paketqellen vorhanden. Bei Sabayon finde ich auch diese Tools in den Quellen. Traum!

Ich werde auf jeden Fall weiter mit Sabayon arbeiten und wenn es weiter so stabil läuft auch meinen zweiten Rechner umstellen.

Ein wenig Mut zum Risiko muss man bei Sabayon natürlich mitbringen, da immer das „neuestes Zeugs“ haben nicht zwingend mit Stabilität einhergeht. Zum Einsatz auf Produktivsystemen also nur bedingt geeignet.

Flattr this!

Synology Diskstation: SABnzbd anstelle der Downloadstation

Hier noch ein Kurztipp:

Wem die Downloadstation auf dem Synology NAS nicht so richtig gefällt:

Es gibt auch ein Dritthersteller Paket für SABnzbd! Bei mir läuft es einwandfrei!

SABnzbd für Synology

Flattr this!