Sabayon: Nach Update Probleme mit Radeon Grafikkarten

So stand es vor kurzem noch auf der Sabayon Seite:

„Upcoming important updates for ATI/AMD GPU owners
Mon, 30 Jul 2012 19:33:46 +0000, sabayon-weeklyHi guys, the next week we’re going to roll out an important X.Org Server update. We are updating this vital component of the distro to version 1.12.2. In order to do so, we are now forced to upgrade the AMD Catalyst Drivers to version 12.6. This version also discontinues the support for Radeon HD 2000/3000/4000. If you own one of these cards, you better switch to the OpenSource drivers NOW.“

Diese Meldung habe ich natürlich gekonnt ignoriert… Der einzige Vorteil: Wenigstens wusste ich nach dem letzten Update warum mein KDE Desktop mal so gar nicht mehr starten mochte. :-)
Nachdem ich die Vorschläge auf der Sabayon Seite umgesetzt habe (erfolglos) bin ich im Sabayon Forum fündig geworden. Hier mal was zu tun ist, wenn man wie ich eine der genannten Karten nutzt (die einzelnen Schritte habe ich aus dem Forum):
Ziel ist es den Radeon Treiber loszuwerden und den Rechner auf die Open Source Alternative umzustellen
Also erstmal die ATI Treiber entfernen
equo remove --configfiles ati-drivers ati-userspace
Prüfen ob der Open Source Treiber bereits installiert ist:
equo query installed xf86-video-ati --quiet –verbose
Nur wenn er noch nicht vorhanden ist nachinstallieren (scheinbar kann es zu Problemen kommen, wenn er einfach nochmal installiert wird:
equo install xf86-video-ati
Entfernen folgender Datei:
rm /etc/gpu-detector.conf
 Der Kernel muss das Radeon Modul laden. Dies erreicht man wenn man folgende Datei in einen Editor lädt und diese Zeile hinzufügt:
nano /etc/conf.d/modules
modules=radeon
 Aus dem Grub Menü müssen ein paar Kernel Module entfernt werden:
Folgende Datei in einen Editor laden
nano /etc/default/sabayon-grub
Diese Einträge müssen entfernt werden:
console=tty1, quiet splash=**** and vga=****
Anstelle der **** können unterschiedliche Werte stehen.
Kernel Mode Setting aktiveren:
Folgende Dateiin einen Editor laden:
nano /etc/default/grub
Die Zeile die mit GRUB_CMDLINE_LINUX_DEFAULT beginnt um folgendes erweitern:
radeon.modeset=1
Folgende Datei erzeugen (kann sein, dass die schon vorhanden ist):
touch /etc/modprobe.d/radeon.conf
In die Datei kommt nur eine Zeile:
options radeon modeset=1
Die grub.cfg muss neu erzeugt werden:
 grub-mkconfig -o /boot/grub/grub.cfg
Zum Abschluss muss noch die xorg.conf geändert werden:
nano /etc/X11/xorg.conf
Der Wert von fglrx muss durch ati ersetzt werden.
Nach diesen ganzen Schritten und einem Reboot lächelte mich dann auch wieder mein KDE Desktop an. :-)

Flattr this!

Anwendungen (mit GUI) als superuser unter KDE starten

Kannte ich bisher noch nicht… :-)

Ich musste vor kurzem mal den Dolphin Filebrowser mit root Rechten starten…

In der Regel geht dies über:

sudo dolphin

Allerdings lächelte mich dann folgende Meldung an:

No protocol specified
dolphin: cannot connect to X server :2000

Die Lösung ist ganz einfach ,war mir bisher aber unbekannt. Unter KDE startet man GUI Tools nicht mit sudo, sondern mit kdesu…

Also so:

kdesu dolphin

Braucht man zwar nicht häufig, ist aber gut zu wissen. :-)

Flattr this!

Linux über grub im Recovery Modus mit Schreibrechten starten

Das letzte Sabayon Update hat leider meine Grafikkarten Konfig zerschossen, sodass mein KDE Desktop nicht mehr starten wollte. Sabayon, wie auch andere Distributionen, installieren grub mit inkl. der Option das System im Recovery Modus zu booten.

Ist auch alles schön und gut, nur leider wird dabei per Default das Filesystem read-only gemountet.

Wer dennoch schreibrechte haben mag setzt einfach folgendes Zeilchen ab:

mount -rw -o remount /

Flattr this!

Einbinden von NFS Freigaben über autofs (z.B. für Synology NAS)

. Bisher habe ich meine NFS Freigaben von meinem Synology NAS immer direkt beim Booten über fstab gemountet. Die Einträge in der fstab sahen dann in etwa so aus:

IP_NAS:/volumeUSB7/usbshare /mnt/NAS/Dokumente nfs rw 0 0
IP_NAS:/volume1/music /mnt/NAS/musik nfs rw 0 0

Das funkioniert im Prinzip auch soweit ganz gut. Allerdings hat es zwei Nachteile:

  • Die NFS Freigaben werden während des Bootens bereits gemountet, je nach Distribution und Konfiguration, geschieht dies in einem Moment wo der Network Manager (oder andere abhängige Dienste) noch nicht gestartet wurden. Hier muss dann manuell an der Konfiguration geschraubt werden. Genauso kann es vorkommen, dass das NAS nicht verfügbar ist und dadurch der Bootvorgang lange dauert oder schlichtweg der Rechner nicht mehr sauber startet, wenn das NAS nicht verfügbar ist. Sowas passiert zum Beispiel gerne mal, wenn man sein Notebook ausserhalb des eigenen Netzes nutzt.
  • Ein weiterer Nachteil ist die Auslastung des eigenen Netzwerkes. Hat man zum Beispiel noch fünf USB Platten am NAS hängen und diese auch in der fstab eingetragen, werden alle Platten des NAS beim Booten des Rechners aus dem „Tiefschlaf“ gerissen und es findet schon jede Menge Traffic statt ohne dass man den Zugriff in diesem Moment überhaupt benötigt. Ganz zu schweigen vom Stromverbrauch.

Vor ein paar Tagen bin ich dann über einen Artikel auf tuxanddroid.de auf autofs aufmerksam geworden. Der Artikel auf tuxanddroid bezieht sich auf SMB Freigaben, ausserdem bin ich noch auf ein, zwei Stolpersteinchen gestoßen, sodass ich hier ebenfalls noch einen Artikel zu dem Thema verfassen möchte.

autofs macht nichts anderes als Freigaben (egal ob NFS, SMB etc.) erst dann zu mounten wenn sie benötigt werden. Die Notwendigkeit wird zum Beispiel durch einen Klick in Nautlius auf den jeweiligen Ordner oder aber auch durch ein „ls“ auf der Console bestimmt. Auch übernimmt autofs das automatische „aushängen“ wenn auf die Laufwerke nicht mehr zugegriffen wird.

autofs ist in jeder Distribution als Paket enthalten. Die Installation ist also sehr einfach.

Für Sabayon:

sudo equo install autofs

Auch die Konfiguration ist recht einfach. Sie wird prinzipiell über zwei Dateien erledigt.

Alle notwendigen Dateien liegen unter:

etc/autofs/

Beginnen wir mit der Datei auto.master. Diese laden wir in einen beliebigen Editor mit root Rechten.

sudo nano /etc/autofs/auto.master

Und ja… ich liebe nano! :-)

Viel gibt es hier nicht zu tun, lediglich eine Zeile ist hinzuzufügen.

/mnt/NAS    /etc/autofs/auto.synology --ghost

Teil 1 gibt den Mount Punkt für die NFS Freigaben an. Dieses Verzeichnis sollte bereits vor der Nutzung von autofs angelegt werden:

sudo mkdir /mnt/NAS

Teil 2 gibt an in welcher Datei die NFS Freigaben konfiguriert sind. Die Datei kann einen beliebigen Namen haben. Noch existiert die Datei nicht, also legen wir sie fix an.

sudo touch /etc/autofs/auto.synology

Teil 3 ist optional. Hier werden Optionsparameter gesetzt. Achtung! auf das doppelte Minus achten! Bei jedem weiteren Optionsparameter ist nur ein minus zu setzen.

-ghost gibt an, dass die mount Punkte sichtbar sind auch wenn die NFS Freigabe noch nicht gemountet wurde. Die Option -ghost ist einer der von mir erwähnten Stolpersteine. Ist diese Option nicht gesetzt, werden die Verzeichnisse wo die NFS Freigaben landen nicht angezeigt. Wenn die Verzeichnisse nicht angezeigt werden, kann man auch nicht darauf klicken, um das automount zu triggern. Typisches „Henne-Ei-Problem“ :-)

Nun tragen wir die Freigaben in die gerade erstellte Datei auto.synology ein.

sudo nano /etc/autofs/auto.synology

Hier wird nun pro Zeile eine NFS (oder SMB, etc) Freigabe eingetragen.

Hier mal drei selbsterklärende Beispiele:

Bilder -fstype=nfs,rw IP_VOM_NAS:/volume1/photo
Web -fstype=nfs,rw IP_VOM_NAS:/volume1/web
Dokumente -fstype=nfs,rw IP_VOM_NAS:/volumeUSB4/usbshare

Über den Namen am Beginn jeder Zeile wird dann ein Verzeichnis unter dem definierten Mount Punkt angelegt.

Die beiden modifizierten Dateien müssen noch mit den entsprechenden Rechten verarztet werden.

sudo chmod 644 /etc/autofs/auto.master
sudo chmod 644 /etc/autofs/auto.synology

Grundsätzlich war es das erstmal. Allerdings gibt es noch einen weiteren Stolperstein. 😉

Wenn ihr eure NFS Freigaben wie ich bisher über die fstab gemountet habt, wird autofs solange nicht funktionieren, bis ihr die Einträge aus der fstab entfernt habt und die Freigaben mit einem

sudo umount -a

gelöst habt. Denn eine NFS Freigabe kann genau nur einmal gemountet werden. Mit den Einträgen in der fstab wird autofs die NFS Laufwerke nicht mounten können. Bei mir gab es sogar nichtmals eine Fehlermeldung in /var/log/messages….

Wenn ihr vorher schon Einträge in der fstab hattet, empfehle ich euch den Rechner einmal durchzustarten.

Unter Sabayon wird der Dienst autofs nicht direkt automatisch gestartet.

Das geschieht über:

sudo /etc/init.d/autofs start | stop | restart

Wenn man möchte das der Dienst auch beim Booten gestartet wird, ist am Beispiel von Sabayon noch folgendes Kommando abzusetzen:

sudo rc-update add autofs default

Das war es schon! Wenn man seine Verzeichnisse auch im home wiederfinden mag, geht das am besten über Links. Beispiel:

ln -s /mnt/NAS/Bilder /home/BENUTZER/Bilder/Bilder_NAS

oder

ln -s /mnt/NAS/Dokumente /home/BENUTZER/Dokumente

Wenn jetzt alles funkitoniert hat, dann solltet ihr beim nächsten Klick auf die Verzeichnisse erst dann die dazugehörige NFS Freigabe gemountet haben.

Und wenn man sich die paar Zeilen Konfiguration anschaut, kann man diese natürlich wieder ganz wunderprächtig in ein Skript gießen um nach dem Neuaufsetzen eines Rechners nicht wieder alles von Hand machen zu müssen. :-)

 

Flattr this!

MiniDLNA: Sehr guter DLNA Server und bessere Alternative zum Synology Medienserver

Seit dem letzten größeren Update von meinem Synology NAS hatte ich desöfteren Probleme beim schauen von Videodateien über die PS3. Warum kann ich nicht genau sagen… Scheinbar kamen nicht mehr genug Daten durch die Leitung, was sich im störenden Ruckeln bemerkbar machte… Kann aber auch sein, dass mein NAS einfach zu schmalbrüstig ist und an RAM oder CPU Grenzen gestoßen ist.

Viele Dienste von Synology nutze ich sowieso nicht, also begab ich mich auf die Suche nach einer Alternative für den Synology Medienserver. Mich hat hierbei sowieso gestört, dass der Synchronisierungsjob (Hinzufügen von neuen Mediendateien) alles war… nur nicht zuverlässig… Neue Musikalben waren teilweise erst Tage später in der Datenbank bzw. teilweise auch erst dann, wenn ich die Sync Job manuell gestartet habe.

DLNA Server gibt es einige. Leider kommen sehr viele für mich nicht in Frage, da ich mit das kleinste NAS von Synology habe und die Server dann schlichtweg nicht installiert werden können. Zum Beispiel Plex :-(

Dennoch habe ich einen sehr guten Ersatz gefunden, welcher auf meinem NAS sogar besser läuft als der Medienserver von Synology.

miniDLNA

miniDLNA ist ein sehr schlanker DLNA Server mit dem man wunderbar seine Videos, Musik und Bilder im Netz streamen kann.

Vorraussetzung für die Installation auf dem Synology NAS ist, dass man in der Lage ist Third Party Apps auf dem NAS zu installieren.

Dazu gibt es hier eine sehr gute Anleitung.

Für mich bietet der miniDLNA Server folgende Vorteile gegenüber dem Medienserver von Synology:

  • Bild, welches auf dem Client angezeigt wird ist Tux :-)
  • Keine Notwendigkeit mehr mehrere Festplatten über bind in die Standardverzeichnisse zu mounten
  • Initiale Befüllung der Mediendatenbank läuft schneller als beim Synology Server
  • Dienst zur Überwachung der Medienverzeichnisse läuft zuverlässiger
  • kein Ruckeln beim schauen von Videos
  • Cover Anzeige von Musikalben auf dem Client

Die Installation erfolgt folgendermaßen:

  1. Anmeldung am Webinterface des NAS
  2. Starten des Paketzentrums
  3. Einstellungen aufrufen und Register Paketquellen auswählen.
  4. Paketquelle hinzufügen
  5. In das Feld Name schreibt ihr den Namen des Paketes oder eine Beschreibung rein.
  6. In das Feld Ort tragt ihr folgende URL ein:
    http://pvr.unzureichende.info/synology
  7. Im Paketzentrum könnt ihr dann über das Register „Andere Quellen“ den miniDLNA Server installieren

Ein Start wird jetzt noch nicht funkionieren, da der Server erstmal konfiguriert werden mag.

Also melden wir uns als root über ssh am NAS an.

Dort wechseln wir in folgendes Verzeichnis:

/volume1/@appstore/minidlna/etc/

Wir öffnen die Datei minidlna.conf mit einem Editor. Welchen man verwendet ist wurscht.

Ich gehe jetzt nur auf die wichtigsten Konfigurationspunkte ein. Man sollte sich die Datei aber ruhig in Ruhe im Detail anschauen.

Wichtig sind die Verzeichnisse mit den Medieninhalten:

media_dir=A,/volume1/music
media_dir=P,/volume1/photo
media_dir=V,/volume1/video

Im Gegensatz zum Standard Medienserver können hier auch USB Platten berücksichtigt werden.
Zum Beispiel so:

media_dir=V,/volumeUSB2/usbshare1-2/Familienfilme
media_dir=P,/volumeUSB1/Bilder

Die Buchstaben A, P und V stehen jeweils für Audio, Photo und Video. So weiss der minidlna Server auch was er in den angegebenen Verzeichnissen zu suchen hat.

inotify=yes

Dieser Wert sollte auf yes bleiben, da er den Dienst laufen lässt, welcher die Medienverzeichnisse auf neue Dateien überwacht.

Das war es an Pflichtkonfiguration. Man kann aber auch noch diverse andere Dinge ändern, wie zum Beispiel den Ablageort der Datenbank oder den Namen des Servers (wird im Client angezeigt).

Nun können wir den Server starten. Paketzentrum->Register „Installiert“->miniDLNA start

Gebt dem Server ein bis zwei Stündchen Zeit. Er muss im ersten Schritt erstmal die Mediendatenbank erzeugen, was schonmal ein paar Stunden dauern kann.

Danach solltet ihr über eure entsprechenden DLNA Clients den neuen Server sehen können.

Wenn ihr erstmal nur testen wollt, könnt ihr den Medienserver von Synology ruhig im Parallelbetrieb fahren. Die beiden beissen sich nicht. 😉

Als Client für Android Geräte kann ich übrigens folgende App empfehlen:

BubbleUPnP

 


 

http://elan.plexapp.com/

Flattr this!

Sicherungen von Web Applikationen auf root Server (mit rsync und mysqldump)

In erster Linie hat man seinen root Server im Netz um Web Applikationen wie Blogs, Bilderalben, etc.. anzubieten. Das man mit einem root Server auch ein wenig mehr Verantwortung übernimmt als bei normalen Webhosting Paketen hatte ich ja auch schon in einem anderen Artikel geschrieben.

Ein wichtiger Punkt ist natürlich regelmäßige Backups seiner Anwendungen zu erstellen.

Die „Standard Web-Anwedung“ besteht in der Regeln aus zwei Komponenten… der Code, welcher über den Webserver zu Verfügung gestellt wird und den Datenbankanteil, welche meist in einer mysql Datenbank schlummert.

Und genau für diese Standard Installation reicht ein Zweizeiler Skript um tägliche Sicherungen zu erstellen!

Für meine Sicherungen nutze ich für die Dateien rsync und für die Datenbanken mysqldump.

Schritt 1 (Dateien sichern):

rsync -av /var/www/PFAD_ZUR_SEITE /store/backup/backup_files

Mit diesem Befehl werden alle Dateien aus eurem Applikations Ordner (/var/www/PFAD_ZUR_SEITE) in den Backup Ordner (hier: /store/backup/backup_files) synchronisiert. Man sollte für solche Aktionen grundsätzlich rsync verwenden, da dadurch sichergestellt ist, dass die Dateien auch sicher im Zielverzeichnis landen. Das ist bei cp nicht sichergestellt. Der Parameter -a stellt sicher, dass auch die Verzeichnis.- und Dateirechte, Symlinks, etc mitgenommen werden. Der Parameter -v macht die Aktion einfach etwas gesprächiger. Bei manuellem Aufruf sicher interessant, über einen Cronjob nicht zwingend notwendig.

Schritt 2 (Datenbank sichern):

mysqldump DATENBANK_NAME --user=DATENBANK_BENUTZER --password=DATENBANK_PASSWORT > /store/backup/backup_sql/data.sql

Mit dieser Zeile wird ein kompletter Dump der Datenbank erzeugt und in eine Datei geschrieben. Die erforderlichen Werte für den Namen der DB, des Benutzers und des PWs sollten euch natürlich vorliegen.

Das wars, mehr ist nicht zu tun. Diese beiden Zeilen bieten sich natürlich hervorragend an um sie in ein Skript zu gießen, welches einmal in der Nacht als Cronjob läuft. Somit muss man sich nicht mehr um die Sicherung seiner Seiten kümmern und vor allem ist die Arbeit dafür sehr überschaubar.

Beide Befehle lassen sich auch sehr einfach ändern, um die Aktion umgekehrt zu erledigen, nämlich um ein Backup wieder einzuspielen.

rsync  -av /store/backup/backup_files/ORDNER_MIT_DATEIEN /var/www/PFAD_ZUR_SEITE
mysql --user=DATENBANK_USER --password=DATENBANK_PASSWORT DATENBANK_NAME < /store/backup/backup_sql/data.sql

Dieser Zweilzeiler spielt eure Daten und Dateien wieder ein. Bei Import der Daten wird nicht mit mysqldump gearbeitet, sondern mit mysql.

Also, immer schön Backups erstellen. Viel ist dafür nicht zu tun.

Flattr this!

Notizverwaltung auf eigenem Server (ähnlich Evernote)

Heute mal weniger eine Anleitung, sondern mehr ein Vorschlag, falls jemand auf der Suche nach einer Notizverwaltung sein sollte, welche nicht bei fremdgehosteten Diensten laufen soll.

Früher hatte ich meine Notizen bei Evernote liegen. Grundsätzlich ein sehr guter Dienst. Es gibt Clients für Android, Windows (Linux glaube ich nicht) oder halt den Webclient. Man kann seine Notizen verwalten, mit Kategorien versehen oder auch Anhänge hochladen wie Bilder, Soundclips, Skizzen, etc… Allerdings, wie so oft, liegen die Daten mal wieder nicht auf einem eigenen Server, sondern halt bei Evernote. Für die meisten User stellt das kein Problem dar, für mich allerdings schon. Also habe ich Evernote den Rücken zugekehrt und mich auf die Suche nach einem anderen Dienst begeben.

Leider habe ich keinen adäquaten Ersatz gefunden, sodass ich eine Zeit lang meine Notizen über einen Mail Account verwaltet habe… Anstatt Kategorien habe ich mir Ordner angelegt und wenn mir etwas durch den Kopf ging, ich etwas intererssantes gelesen habe oder was auch immer… habe ich mir halt eine Mail geschickt… Die Lösung ist natürlich auch nicht das Gelbe vom Ei…

Nun gut… da ich nicts gefunden habe was für eine Notizverwaltung vorgesehen war, musste ich etwas anderes dafür missbrauchen. 😉

Was ich nun schon sehr lange nutze und absolut zufrieden damit bin ist einfach ein Blogsystem als Notizverwaltung zu missbrauchen. WordPress ist mir zu gewaltig für diese Aufgabe. Als Alternative zu WordPress bietet sich

Serendipity

an.

Schwierig auszusprechen, aber in der Installation und Konfiguration recht einfach.

Ich habe einen Blog, welcher nur für mich bestimmt ist (mindestens Sicherung durch .htaccess) und Konfiguration, dass der Blog nicht in Suchmaschinen auftauchen soll.

Innerhalb des Blogs kann man Kategorien anlegen. Man kann Soudclips, Grafiken, Fotos, Texte, etc… hochladen. Zu bedienen ist der Blog entweder über das Webinterface (einen Browser hat wohl jeder ;-)) oder über den Android WordPress Client. Leider finde ich im Moment den Link nicht mehr was dafür zu tun ist, aber man kann Serendipity Blogs auch über den Android WP Client mit Content füttern. Aber auch ohne Client geht das Hinzufügen sehr schnell und einfach. Denn auch Serendipity bietet die Möglichkeit Einträge per Mail hinzuzufügen.

Im großen und ganzen fehlt mir eigentlich nicht ein einziges Feature welches Evernote zu bieten hat und ich nicht mit Serendipity abdecken kann.

Serendipity bieten für jede Kategorie einen eigenen RSS Feed, sodass man seine Notizen ggf. auch in seinem RSS Reader lesen kann.

Diese Konstrukt kann auch als Ersatz für Dienste wie Read It Later und Co. verwendet werden. Findet man einen Artikel im Netz welchen man später in Ruhe lesen will, einfach einen Blogeintrag erstellen (es gibt dafür Firefox Plugins) und später über den RSS Reader lesen.

Für mich reicht der „eigene Dienst“ vollkommen aus und ich habe ein gutes Gefühl, da meine Daten bei mir liegen.

Flattr this!

Nachtrag zu: Einbinden von Cloudstorage über webdav und fstab (owncloud, HiDrive, etc…)

Der Artikel ist seit owncloud 4 nicht mehr ganz aktuell….

Die URL zum Zugriff über webdav hat sich ebenfalls geändet und lautet nun:

http://URL_OWNCLOUD/remote.php/webdav/

Flattr this!

owncloud 4: Änderung der caldav und carddav URLs

Bin nun auch in meinem Produktivsystem von owncloud 3 auf owncloud 4 gewechselt. Das Update geht leicht von statten.

Allerdings gibt es eine Änderung der URLs um seine Kontakte und Termine zu syncen.

Bisher sahen die URLs folgendermaßen aus:

Kalender:
http://OWNCLOUD_URL/apps/calendar/caldav.php/calendars/

Kontakte:
http://OWNCLOUD_URL/apps/contacts/carddav.php/addressbooks/

Ab owncloud 4 sollten folgende URLs verwendet werden:

Kalender:
http://OWNCLOUD_URL/remote.php/caldav/

Kontakte:
http://OWNCLOUD_URL/remote.php/carddav/

Wer den KDE Desktop nutzt und damit auch Kontact und Korganizer muss hier Hand anlegen. KDE hat beim Einrichten der Datenquellen zwar die Möglichkeit owncloud als Datenliefernat zu konfigurieren, allerdings funkioniert dies mit der neuen URL nicht mehr. Die Datenquellen müssen also manuell angelegt werden.

Flattr this!