• Sprache:

Quick Info: VMware Workstation Netzwerk funktioniert nicht

Ich habe kürzlich meine VMware Workstation auf eine neue Hostmaschine umgezogen und seitdem funktionierten weder die vmnet Interfaces noch sonst irgendein Netzwerk Service von VMware. Mittels vmware-network –status lässt sich der aktuelle Zustand der virtuellen NICs und der Netservices überprüfen. Bei mir kam
Bridge networking on vmnet0 is not running
DHCP service on vmnet1 is not running
Hostonly virtual adapter on vmnet1 is disabled
DHCP service on vmnet8 is not running
NAT service on vmnet8 is not running
Hostonly virtual adapter on vmnet8 is disabled
Some/All of the configured services are not running

was ich versuchte mit vmware-network –start zu beheben. Leider bekam ich Failed to start some/all services als Antwort und musste auf Fehlersuche gehen. Des Rätsels Lösung war ein nicht aktivierter Kernelmod namens vmnet. Ein schnelles modprobe vmnet und erneutes starten des Services löste das Problem.

ShareX Alternative für GNU/Linux

Eins der wenigen Programme die ich unter Debian vermisse ist ShareX welches nach wie vor keinen Linux Support bekommen hat. Viele schlagen Shutter als Alternative vor aber wenn man mal ehrlich ist kommt es nicht mal ansatzweise an ShareX ran… Bisher eher unbekannt scheint hingegen Screencloud zu sein, obwohl es genau das tut was ich brauche. Es erlaubt Screenshots von Programmen, dem kompletten Bildschirm oder frei gewählten Bereichen zu machen und sie danach in die Zwischenablage zu kopieren oder zu online Diensten hochzuladen. In meinem Falle ist das mein eigener FTP Server allerdings unterstützt es auch SFTP, Imgur und Dropbox. Was es leider nicht unterstützt sind HTTP Posts zu Scripten wie Beispielsweise Pomf welches bei vielen Nutzern sehr beliebt ist.
Wer dazu in der Lage ist, könnte aber ein Script oder Plugin für Screencloud schreiben, welches dann anstelle eines Uploads ausgeführt wird und den HTTP Post übernimmt.

Quick Info: Pushbullet’s end-to-end Verschlüsselung funktioniert nicht mit Firefox

Vor etwa einer Woche fing ich an Pushbullet wieder auf meinem Handy zu benutzen. Es ist ein offenes Geheimnis das WhatsApp Web nicht gerade das Gelbe vom Ei ist und zusätzlich dazu bin ich auch noch viel zu faul mein Handy aus der Hosentasche zu holen, wenn mir jemand eine Nachricht schreibt. Pushbullet sendet die Nachrichten an meinen eh immer laufenden Firefox wo ich sie lesen und beantworten kann. Die integrierte end-to-end Verschlüsselung fiel mir ins Auge und ich setzte kurzerhand ein Password auf meinem Handy fest. Trotzdem war das Firefox AddOn nicht in der Lage die zugesandten Nachrichten zu entschlüssen, da er das Passwort nicht übernommen hat.
Verursacher dieses Problems war die Fanboy Social Blocking List welche ich in AdBlock Plus abonniert habe und die die Kommunikation zwischen dem Pushbullet AddOn und Pushbullet.com störte. Nachdem ich ABP für die AddOn Seiten deaktiviert habe, ging alles problemlos.

Quick Info: Kein Zugriff auf Veracrypt Volumes nach non-root mount

Kürzlich habe ich Debian auf meinem Desktop Computer aufgesetzt (thx @Hypfer das du mich zu diesem Schritt ermutigt hast). Eines der ersten Probleme welches mir über den Weg lief war, dass meine externe, verschlüsselte HDD nur für den root User lesbar war. Grund dafür ist, dass ich VeraCrypt via gksudo gestartet habe da es sonst nicht in der Lage war die Volumes zu mounten.
Die Lösung dafür war eine Ausnahme in die sudoers Datei zu schreiben: %[Gruppe des Users] ALL=(root) NOPASSWD:/Pfad/zu/veracrypt
Danach sind alle User der Gruppe in der Lage Volumes mit Veracrypt zu mounten und auf den Inhalt zuzugreifen.

Quick Info: Debian hängt im Bootprozess dank IPv6

Ich habe vor kurzem einige HDDs gekauft, um mein selbst gebautes OpenMediaVault Debian NAS zu vollenden. Ich persönlich bin der Ansicht, dass IPv6 unter allen Umständen supported werden sollte, also aktivierte ich es nach Abschluss der Installation und anschließend lief alles Fehlerfrei. Über Nacht habe ich das NAS runter gefahren, da es noch keinen Inhalt hatte der dauerhaft verfügbar sein musste.
Beim nächsten Boot blieb Debian dann an einem Punkt hängen und weigerte sich weiter zu machen. Auf den ersten Blick sah es nach einem Fehler in der resolv.conf aus, da während des Boots einige Fehlermeldungen dazu kamen aber am Ende stellte sich raus, dass der NIC auf eine IPv6 Adresse vom DHCP Server auf meiner FritzBox (bitte keine Kommentare dazu, wenn ich darüber entscheiden könnte, dann wäre das Teil schon lange im Müll). In der DHCP Config war allerdings irgendetwas verstellt weshalb Debian endlos auf eine Adresse wartete.
Die Lösung für das Problem war IA_PD und IA_NA via FritzBox GUI zu aktivieren und voilà: der Boot lief fehlerfrei durch.

ClouDNS inklusive Secondary-DNS

Bis vor zwei Monaten habe ich all meine Domain-Records über CloudFlare verwaltet. Nicht weil ich mich um DDoS sorgen musste (OVH DDoS Protection sei dank) sondern weil deren Nameserver mir alles boten, was ich brauchte. Zusätzlich dazu hätte ich im Falle des Falles jederzeit den Traffic filtern lassen können, sollte doch mal einer meiner Untermieter einen Angriff forcieren.
Nachdem ich begonnen habe meine Private E-Mail Adresse selbst zu hosten, wollte ich auf Nummer sicher gehen und Secondary-DNS Server einrichten, damit im Falle von Unerreichbarkeit der primären Nameserver (durch welchen Grund auch immer) weiterhin gewährleistet ist. Leider bietet CloudFlare kein AXFR an, weshalb mir die gratis 6 Monate Premium bei ClouDNS in meinem Postfach sehr gelegen kamen. Also fix alle Domains akualisiert, die Records importiert und erst mal einen Freundenschrei ausgestoßen nachdem ich die Features von ClouDNS sah. Speziell das DynURL Verfahren ist im Vergleich zur CF Json API ja mal ULTRA praktisch!

Als Secondary-DNS Server sollen die von INWX herhalten. Nicht weil die die besten dafür sind sondern einfach weil alle meine Domains dort liegen und ich deren DNS dadurch automatisch schon mitbenutzen kann. Deren Wiki Artikel zum Thema Secondary-DNS erklärt sehr verständlich was auf Ihrer Seite zu tun ist. Präferierte ClouDNS und INWX NS eintragen und als Master IP die des Primary NS, welchen man bei ClouDNS im SOA definiert hat angeben.

Bei ClouDNS unter Zonen Transfer die IP des Transfer NS von INWX (steht im Wiki) zulassen und NS Records für die INWX NS anlegen.

Fertig!

Alles was verbleibt ist die Nameserver der Domains auf das neue NS-Set zu ändern und zu warten bis ClouDNS und INWX alles abgeglichen haben.
Nach einer Stunde habe ich dann via nslookup mal geschaut ob die INWX NS meine Records übernommen haben

nslookup craptalk.de ns.inwx.de
nslookup craptalk.de ns2.inwx.de

Wenn die NS von INWX korrekt auflösen und nicht über fehlende A/AAAA Records meckern hat der Transfer funktioniert und das Secondary-DNS steht.
Ich denke ich werde nach Ablauf der Gratis Monate bei ClouDNS bleiben. Das Angebot ist für den Preis von 22$ pro Jahr echt verdammt gut.

Bestehende Postfächer auf Uberspace abrufen

Ich habe mir kürzlich einen Uberspace zugelegt, um die Erreichbarkeit von einigen kritischen Services zu sichern. Unter anderem läuft mein Mailverkehr zukünftig nicht mehr über den Freemailer GMX, sondern über meine name.tld auf dem Uberspace. Zumindest in den ersten Monaten möchte ich allerdings weiterhin die Mails von meinen GMX Postfächern abrufen weil es immer irgendeinen Account gibt, den ich noch nicht umgestellt habe oder eine mir schreibende Person den Adresswechsel bisher nicht mitbekommen hat.
Fetchmail ist auf den Uberspaces nicht installiert, dafür aber das offenbar sogar bessere Getmail. Die Konfiguration ist trivial einfach und die vorhandene Doku mehr als ausgiebig.

Der Abruf meiner GMX Postfächer funktioniert und liefert alles in mein entsprechendes Maildir aus. Soweit so gut. Ich hätte aber gern Spam wie zum Beispiel die GMX Newsletter auch als solchen markiert und aussortiert und nicht in meiner Inbox. Getmails Filter-Option bringt mir leider nicht mehr als einen [SPAM] Tag im Betreff und DSPAMs potentielle Spamwahrscheinlichkeit im Header weil Getmail die Mails nur an die Filter weitergibt und wieder abholt. Einzige Verarbeitungsoptionen nach den Filtern wären dann drop oder keep was mir im Falle eines False Positives nicht erlaubt die Mail trotzdem zu sehen oder mir weiterhin dem Spam in die Inbox zustellt.

Mein Lösungsansatz ist die Mails nach dem Abrufen durch Getmail in den Uberspace Mailflow (in meiner Konfiguration netqmail -> maildrop -> SpamAssassin -> DSPAM -> Maildir) einzubinden. Dadurch würden sie ebenfalls die Filter durchlaufen aber danach von Maildrop auch entsprechend wegsortiert werden.
Getmail bietet als MDA qmail-local an was in der Theorie gut passen würde. Leider setzt Getmail einen Multidrop-Retriever für MDA_qmaillocal als Destination voraus und das trifft bei GMX/Web.de nicht zu.
Dies lässt sich aber einfach umgehen, indem man als Destination MDA_external mit selbst definierten qmail-local Parametern verwendet:

[destination]
type = MDA_external
path = /var/qmail/bin/qmail-local
arguments = („-N“, „<unix user>“, „</pfad/maildir>“, „%(local)“, „<.qmail Trennzeichen>“, „<.qmail-EXT bei virtuellen Postfächern>“, „%(domain)“, „%(sender)“, „<alternative Zustelladresse>“)

Die Variablen (alles wo ein % vor steht) werden durch Getmail mit den erforderlichen Werten gefüllt. Der qmail-local Pfad ist natürlich nicht absolut und muss für die entsprechende Installation angepasst werden. Alles in den eckigen Klammern, muss mit euren gewünschten Werten gefüllt werden.
Ein Beispiel:

arguments = („-N“, „max“, „/user/max/“, „%(local)“, „-“, „max“, „%(domain)“, „%(sender)“, „max@mustermann.tld“)

Beim Mailabruf wird jetzt ganz normal qmail aufgerufen der dann nach der passenden .qmail-EXT (in unserem Beispiel .email-max) Datei sucht in welcher der Maildrop Aufruf zum Filtern und sortieren steht.

Mails kommen an und ich bin glücklich!