ELK Stack mit Docker

Um einen ELK-Stack bestehend aus Elasticsearch, Logstash und Kibana produktiv zum Einsatz zu bringen, braucht es einen leistungsstarken Server. Doch für Tests und für kleinere Analysen bietet es sich an, den Softwarestack in einer Testumgebung zu betreiben. Hierfür kann zum Beispiel docker zum Einsatz kommen.

Weiter lesen ...


Customize dionaeas FTP service

The ftp service of dionaea honeypot can be identified very easily by nmap. In this article I will show you how to customize your ftp service.

Weiter lesen ...


How to install dionaea on Arch Linux

In this article I will show how to install and setup the latest version of the dionaea honeypot on Arch Linux.

Weiter lesen ...


Customize SSL certificate of dionaea

A new config option to customize the SSL certificate of the dionaea honeypot has been added recently. In the article I will show how to use the new possibility.

Weiter lesen ...


How to install dionaea on Ubuntu 14.04

In this article I will show how to install and setup the latest nightly version of the dionaea honeypot.

Weiter lesen ...


Setup a dionaea development environment

A Vagrantfile has been added to the dionaea git repository to simplify the setup of a development machine. It uses Vagrant and VirtualBox.

Weiter lesen ...


Verbindung über einen Proxy mit Python

Das PySocks Modul ermöglicht es in Python Verbindungen über einen Proxy aufzubauen. Im folgenden Artikel wird kurz gezeigt wie dies Funktioniert.

Weiter lesen ...


Logs mit Fluentd sammeln und auswerten

Fluentd ist eine Open Source Anwendung mit der Logs gesammelt, aufbereitet, gespeichert und weiterverarbeitet werden können. Wie die Anwendung installiert und grundlegend Konfiguriert wird, wird im folgenden Artikel beschrieben.

Weiter lesen ...


Firefox im Docker Container

Mit Docker ist es nicht nur möglich Server-Anwendungen in einem Container zu betreiben. So können auch Anwendungen mit einer GUI verwendet werden. Im folgenden Artikel wird gezeigt, wie dies am Beispiel des Browsers Firefox realisiert werden kann.

Weiter lesen ...


Mit Scrapy zum eigenen Webcrawler

Scrapy ist ein Framework mit dem Crawler und Scraper geschrieben werden können. So ist es möglich Daten von Webseiten automatisch auszulesen und zu verarbeiten. Im Folgenden wird kurz gezeigt, was mit Scrapy möglich ist.

Weiter lesen ...