Schlagwort-Archive: selbstgebautes

Application server 2014.

Früher lief bei mir ein Server mit Proxmox und einem von Hand angelegten Software RAID5, alle Dienste liefen in VMs. Die Idee war mal das man ja die VMs einfach umziehen lassen könnte wenn der Server erneuert wird. Habe ich nie gemacht. Ich glaube auch, alle Dienste die man so braucht alle paar Jahre mal neu aufzusetzen hat was gutes. Bei der Gelegenheit kann man sich mal umschauen ob es mittlerweile Alternativen gibt, die vielleicht besser, schneller und weniger resourcenhungrig sind und man bleibt in Übung. Ausserdem wollte ich schon seit Jahren mal einen Fileserver mit FreeNAS (zw. NAS4Free damals) haben. Mein neuer Fileserver läuft jetzt mit FreeNAS und es läuft sogar eine VM (Jails) drauf, bei der es Sinn ergibt das sie auf dem Fileserver läuft, nämlich mein SubSonic Streaming/Web-frontend für meine MP3 Sammlung.

Ich hatte mich also mit dem Fileserver auch entschieden, dass ich mindestens einen weiteren Server für alle anderen Dienste bräuchte. Nun ist das zur Zeit etwas wild. Ich habe einen Raspberry Pi, der macht bei mir nur DHCP und DNS,  mein altes AtomBoard ist jetzt mein Downloadserver, meine Spielwiese für Webentwicklung und was da noch so kommt mit der Zeit. Nun habe ich vor kurzem mein MediaCenter umgerüstet,  ich habe einen NUC gekauft und im Zuge der Recherche, habe ich mir mal angeschaut was es da so für Stromspar – Systeme zur Zeit auf dem Markt gibt. Dabei ist mir aufgefallen das mein über 4 Jahre alter Atom aus heutiger Sicht schon viel Strom für wenig Leistung verbraucht. Also der schafft etwa 600 Punkte bei 15W TDP. Der NUC ist immerhin schon bei 1200 Punkten bei 7.5W. Der Celeron J1900 schafft 2000 Punkte bei 10W TDP. Wenn man jetzt noch reinrechnet, dass man (bei dem Mainboard das ich gewählt habe) kein ATX Netzteil braucht, da es mit 9-19V Gleichstrom betrieben wird, spart man nochmal etwa 10-20% gegenüber einem System mit ATX Netzteil. Ok, viel erklärt, hier das System wie ich es mir zusammenbauen werde.

    Board & CPU: ASRock Q1900DC-ITX

      Das ist ein Quadcore Celeron mit Q4/2013 Kern, 10W TPD. Als Arbeitsspeicher kann DDR1333 LowVoltage verwendet werden. Statt ATX Netzteil kommt einfach 9-19V Gleichstrom ran.
    Ram: Crucial Ballistix 8GB DDR3 SO-Dimm

      Der kann von 1.35V bis 1.5V laufen, mal sehen ob 1.35 eine messbare Stromersparniss bringt.
    SSD: Intel 530 Series 120GB + 750 GB 2.5Zoll WD Red (NAS)

      Von der SSD soll gebootet werden und sie soll als Cache zum downloaden und entpacken dienen. Die kleine NAS Platte habe ich schon, da landen dann die fertigen Downloads drauf und alle Dienste die nennenswert Daten haben.

Da ich seit dem alten Server kein Nagios mehr habe, wird das wohl das erste sein das ich installiere, also diesmal wollte ich ICINGA 2.0 versuchen, mal sehen ob das besser ist als Nagios.

Hardware für 2014.

So, nun musste es doch sein. Ich brauchte ein neues System zum Arbeiten und natürlich auch zum Spielen. Ich hatte mir letztes Jahr schon Gedanken gemacht was es werden könnte und habe mich dann doch für etwas andere Komponenten entschieden.

    CPU: Intel® Core™ i5-4670T Processor

      Das ist ein Quadcore mit Hashwell Kern mit 45W TPD. Er hat eine Grafikeinheit, d.h. sollte ich ihn in ein paar Jahren als Server CPU benutzen wollen, braucht das System keine dedizierte Grafikkarte.
    Lüfter: Alpenföhn Groß Clockner rev. C

      Ich wollte einen, bei dem man den Lüfter auch mal austauschen kann ohne gleich alles neu kaufen zu müssen, dass sieht bei dem so aus.
    Board: ASUS H87M-E (C2)

      Früher habe ich oft ASUS gekauft, dann irgendwann nur noch Gigabyte, nun gebe ich ASUS mal wieder eine Chance. Es sollten 4 RAM Riegel reingehen, da irgendwann mal 32GB Ram rein sollen und ich lieber die 8GB als die 16GB Riegel kaufen wollte. Dann wollte ich unbedingt einen PCIe den ich auch benutzen kann, also mindestens einen Slot weg von der Grafikkarte, zwei sind sicherer. 4x USB3.0 fand ich auch besser als die 2x bei den B85-Chipsätzen. Ich habe versucht ein Board zu nehmen das möglichst wenig Strom verbraucht. In der C’t habe ich gelesen, dass ein Hinweis darauf die Anzahl der Spannungwandler sein können. Die kleinen grauen Würfel in der Nähe der CPU.
    RAM: DIMM 16 GB DDR3-1600 Kit

      Also 2x8GB Riegel, so bleibt die Option mit zwei weiteren zum Maximalausbau von 32GB zu kommen.
    Grafikkarte: Gigabyte GeForce GTX 660 OC

      Habe dann doch lieber eine NVida genommen, dass Verhältnis von Stromverbrauch zu Rechenleistung und Preis stimmte einfach.
    SSD: Samsung SSD 840 EVO 250GB

      Ich wollte keine SSD mit SandForce Controller, da die ihre guten Transferraten nur bei unkomprimierten Daten schaffen und die SandForce SSD haben auch einen höheren Stromverbrauch.
    Optisches Laufwerk: LG Electronics BH16NS40

      LG beschreibt ihn als den AllesBrenner. Kann noch nicht viel dazu sagen. Ich muss auch nochmal checken ob diese Blu-Ray RE Rohlinge wirklich 20 oder mehr Jahre halten.
    Gehäuse: Xigmatek Midgard II

      Ich habe zuerst das Chieftec Libra LF-02B favorisiert, aber dann Tests gelesen und das Midgard II hat dann doch an den entscheidenen Stellen etwas besser abgeschnitten. Ein Grund war, dass das Netzteil nicht direkt auf dem Gehäusemetal liegt.
    Soundkarte: ASUS Xonar DGX, PCIe x1

      Nachdem ich selbst festgestellt habe (Teamspeak) wie schlecht die Qualität dieser OnBoard Soundkarten sein kann, habe ich mich ein wenig belesen und selbst die echten HiFi Fans sagen mit der Karte kann man wenig falsch machen.
    Netzteil: be quiet! Straight Power BQT E9 400W

      Hat einen 13,5cm Lüfter und bisher habe ich nur gute Erfahrungen mit BeQuit gemacht und 80 PLUS Gold , also 90% Effizienz, Hashwell kompatibel und es unterstützt ErP Lot 6, also unter 0.5W im Standby.
    Monitor: LG Flatron 24EA53VQ-P

      IPS Panel, niedriger Stromverbrauch und nachdem ich ihn jetzt schon 3 Monate im Einsatz habe, muss ich sagen das Bild ist super.
    Tastatur: CM Storm Quickfire Ultimate

      Die hat die Cherry MX-Brown Schalter drin, also mit Druckpunkt, aber ohne Klick. Ich hätte mir lieber die ein CODE Keyboard geholt, aber mit Versand kostet die dann weit über $200. Die Quickfire ist ok. Nach sehr kurzer Eingewöhnungszeit schreibt es sich damit wirklich sehr angenehm.

Wenn mein Homeserver umgebaut wird, bleibt da noch eine 2TB Green ECO übrig, die wird dann noch ins System eingebaut.

Man nimmt was man kriegt, nicht unbedingt immer das, was man gern hätte.

Ich habe schon lange keine Hardware mehr eingekauft. Nun musste ich mich ja mehr oder weniger gezwungen wieder mit dem Thema beschäftigen. Was mich schon immer gestört hat, ist der Unterschied zwischen dem was theoreisch beschaffbar ist und dem was real zu bekommen ist. In Berlin hat man es ja schon viel besser als in vielen anderen Orten. Ich habe hier mehrere K&M Computer Filialen, Cyberport Stores, Atelco und noch sehr viel mehr kleinere Computerläden. Die großen drei haben alle eine Webseite bei der man die Verfügbarkeit vor Ort prüfen kann. Das ist alles viel besser als früher, wo man zum Laden hingefahren ist und sogut wie nie mit dem was man eigentlich kaufen wollte zurückkam. Jetzt kann man wenigstens vorher schon nachschauen ob es sich lohnt hinzufahren.

Den Celeron Dualcore mit 35W TDP gabs jedenfalls in Berlin bei keinem der Läden. Also musste ich mich umentscheiden. Atelco hat zur Zeit keine Stromspar CPUs, ich glaube die haben eigentlich nie solche CPUs. Cyberport hat ab und an mal die eine oder andere, aber zur Zeit siehts da auch mau aus. Bleibt nur K&M. Die hatten wenigsten in einer Filiale noch genau eine CPU mit 35W TDP vorrätig. Da bei Alternate (großes Hardwareversandhaus) der Celeron auch grad „im Zulauf“ war und ich ja möglichst schnell Erstatz haben wollte bin ich also zu K&M. Es wurde ein Pentium, genauer der G630T.

Das nächste Problem war das Mainboard. Es musste ein paar Bedingungen erfüllen. Es sollte 4 Bänke für RAM haben, auch wenn die CPU nur 16GB Ram unterstützt, ist es preiswerter 4x4GB zu kaufen als 2x8GB (stromspartechnisch nicht sooo optimal, ich weiß), dann musste es mind. 3 SATA Ports für die Festplatten, am besten einen mehr für eine evtl. Sparedisk und ein SATA Port für die Bootfestplatte haben. Wenns möglich ist noch ein SATA Port mehr fürs DVD Laufwerk (wenn mans doch mal braucht) und ein eSATA wäre schön um nicht immer den ganzen Rechner aufschrauben zu müssen. Gigabit Ethernet, schön wären zwei gewesen, aber da ist man dann gleich mal mit 100€ mehr dabei. Anschlüsse für mind. einen PWM Lüfter (abgesehen vom CPU Lüfter) der die Festplatten kühlen soll. VGA und DVI sollte das Board haben und USB3 sollte auch mit an Board sein. Bei geizhals schnell mal geschaut welches Board da in Frage kommt und so kam ich aufs ASRock H61DE/S3 leider ist das in Berlin nicht so einfach zu bekommen, vor allem nicht wenn man es in 4 Stunden haben will. Also nahm ich das was K&M als nächst größeres da hatte, das Intel DH67BL. Das war dann mal knapp 30€ teuerer als das ASRock. Zusammen mit der CPU habe ich also schon 50€ mehr gezahlt als was ich mir so zusammen gesponnen habe. RAM war kein Problem und auch recht günstig 2x4GB DDR3-1066 (mehr kann die CPU nicht) für unter 40€. Dann musste ich noch die 3. Platte bei Cyberport holen und los gings. Das ganze Wochenende habe ich verschiedene Betriebsysteme ausprobiert, Messungen gemacht und irgendwann hats nur noch genervt.

Ich habe alles durchprobiert, vom reinen Virtualisierer (Proxmox) mit SW Raid5 in den VMs, über FreeNAS (und NAS4Free) und schließlich Windows 2008. Die schönste Lösung wäre sicher FreeNAS gewesen. Das neue Plugin Konzept setzt auch die FreeBSD Virtualisierung, dass heißt, wenn ich das richtig verstanden habe, es sind alle Plugins vom FreeNAS abgetrennt und laufen in einer VM. Leider sind das dann FreeBSD VMs und die muss man selber basteln oder fertig istallieren und zur Zeit gibts da nur FireFly und Transmission. Damit fehlen noch mind. 3 weitere Programme die ich auf dem Server benötige. Ich habe die Req.-Liste gesehen und bin mir ganz sicher in ein paar Monaten ist alles wichtige dafür verfügbar, aber solange wollte ich nicht warten.

Also habe ich Windows 2008 installiert. Dank MSDNAA ist die Lizenz ja kein Problem für mich mehr. Das Board wollte nicht auf anhieb mitmachen, da Intel offiziell die DesktopBoard Serie nicht mit Treibern für Server-Betriebssystem unterstützt. Aber Google lieferte da schöne Hilfestellungen. Es ist ja nicht so das es keinen Treiber gibt, Intel hat nur in die Setup-Routinen eine „nicht auf Desktop-Serie“- installieren Schranke eingebaut.

Das Initianlisieren des Software Raid5 mit 2x 2TB Segate/Samsumg GreenECO Platten dauerte dann mal knapp 30h. Aber jetzt bin ich dran alles einzurichten, die ganzen VMs die ich so brauche und die Freigaben, kommt alles noch.

Ach ja und ohne DVD Laufwerk, mit einem 140mm Frontlüfter verbraucht das System in Ruhe knapp über 40W (Festplatten spindown habe ich noch nicht drin) und unter Last sind es etwa 50W. Das zusammen mit meinem 110Mb/s Lese/Schreibgeschwindigkeit übers Netzwerk, stellt fast jedes fertig NAS in den Schatten. Den Anschaffungspreis mal außen vor gelassen.

Mein Fileserver verabschiedet sich grade.

Eigentlich nur die 3 Jahre alte 1,5TB GreenECO Segate Festplatte. Seit etwa einem Jahr blieb die virtuelle Maschine, die bei mir Downloads und Musik streamen macht, ab und an mal stehen. Der VMware Server zeigte dann immer ein Problem mit der Container Datei, also der virtuellen Festplatte an. Da Windows 2003 als Wirtsbetriebssystem nie Datenverlust anzeigte habe ich mir nichts weiter dabei gedacht. Dann seit Anfang Juli häuften sich die Fehler dermaßen das die VM fast jeden Tag stehen blieb. Als ich versucht habe mir eine Kopie der ausgeschalteten VM auf den Laptop zu kopieren erlebte ich die böse Überraschung. Es gab nicht korrigierbare Lesefehler, ich konnte eine Datei einfach nicht kopieren. Dann habe ich Scandisk laufen lassen und das hat fast 10 stunden gedauert bis der Job durch war. Danach konnte ich die Datei zwar wieder kopieren, aber die Performance der Platte geht seither immer weiter runter. Von einst 80Mb/sek, erst auf 40 und jetzt am Ende gar auf 1,5Mb/sek. Ich habe jetzt in knapp 3 Tagen alles von der Platte runter geholt und bin ganz froh das nichts verloren gegangen ist.

Am Wochenende habe ich mir dann mal ein paar Gedanken zur Zukunft meines Fileservers gemacht. Ich habe mir 2009 das Intel D510MO geholt. Heute stelle ich fest das es Schrott ist. Eigentlich kann man mit dem Teil nichts richtig machen. Der Atom hat kein VT-X, also funktionieren Virtualisierer nicht die dieses Feature brauchen. Damit fallen also ESXi und Proxmox raus. Es gibt keine Window 7 64bit Treiber bzw. keine für Windows 2008 R2. Ich habe viel rumprobiert und habe mich dann entschieden ein FreeNAS oder NAS4Free mit 2x 2TB in RAID1 zu fahren. Die Kiste also als reinen Fileserver zu nutzen und einen alten Laptop als Download und Musikstreamer zu nehmen. Ich hätte das auch umgesetzt nur wollten beide FreeBSD basierte NAS Lösungen meine Platten oder besser gesagt meinen Chipsatz nicht richtig. Ich hätte da was von Hand konfigurieren müssen und darauf hatte ich keine Lust. Zumal offen ist wie sich das System verhält wenn es ein Update gibt.

Da nach ein paar Tagen Kopfzerbrechen und verzweifeln hatte ich genug. Ich habe mich entschieden neue Hardware anzuschaffen. Mir schwebt der Intel Celeron D (G530T) vor. Der hat ein vielfaches der Leistung des Atoms und das bei 35W Max. TDP und er kann VT-X. Ausserdem kann ich mit nur 1 Festplatte mehr von RAID1 auf RAID5 umsteigen, dass gibt Performance und mehr Plattenplatz (also 4TB statt 2TB). Also ich halte euch auf dem Laufenden….

MP3-Player-Projekt Update.

Mehr durch ein Versehen habe ich heute einen neuen ThinClient bei eBay ersteigert. Im Grunde versuche ich nur immer solche Teile für unter 10€ inkl. Versand zu bekommen, aber irgendwie habe ich mich vertippt und 9,33€ statt 3,99€ geboten, scheinbar hatte ich Glück und habe ihn für knapp 9€ gewonnen, leider kommen noch 7€ Versand dazu, aber immernoch sehr günstig. Der große Vorteil des neuen ThinClients ist ein PCI Slot, hier dachte ich an eine gute Soundkarte und ein IDE Anschluss, also Festplatte und DVD-Laufwerk ohne das USB Ports belegt sind. Dazu hat er 800Mhz und nicht 533Mhz wie mein alter. Jetzt muss ich noch schauen wie ich die Festplatte und das DVD-Laufwerk mit Strom versorge, es gibt wohl eine internen USB Anschluss, da könnte man 5V für eine 2,5″ Platte abnehmen, schau‘ ich mir mal an wenn er angekommen ist.

Ach ja, es handelt sich um ein Fujitsu Futro S300.

Update:

Ich hab bei Pollin eine Spannungsversorgung gefunden, die bezahlbar ist und an der ich nix mehr machen muss außer sie einzubauen.

DIY DynDNS mit PHP und Bind.

Ich hatte das gleiche Problem wie viele von euch Nerds. Will ich auf meinen Rechner oder einen Service zu Hause zugreifen, muss ich die aktuelle IP meines DSL Anschlusses kennen. Wie üblich bei Anschlüssen von Privat-Personen wechselt diese alle 24 Stunden. Eine Möglichkeit trotzdem auf die Dienste zu Hause zuzugreifen ist es sich bei einem DynDNS Anbieter zu registrieren und den Router entsprechend einzurichten. Dann ist der heimische Anschluss immer unter dem gleichen Hostname erreichbar.

Einen Nachteil hat das ganze. Der DynDNS-Anbieter hat die Möglichkeit eine Liste anzulegen über alle meine IP-Adressen und wann ich sie verwandt habe. Wenn diese Liste zum Beispiel Werbenetzbetreibern oder anderen Profil bildende Organisationen in die Hände fällt, könnte man damit wunderbar einzelne Sessions meinem Internetzugang zuordnen.

Natürlich versichern fast alle DynDNS Anbieter diese Daten nicht zu speichern und wenn dann auf gar keinen Fall weiterzugeben. Selbst wenn ich den Zusagen der DynDNS Betreibern vertrauen würde, steht spätestens im Falle einer Übernahme oder eines Konkurses eine Änderung der Zusagen nichts im Weg.

Das diese Daten nur auf Systemen in meinem Verantwortungsbereich anfallen, ist ein Ziel dieses Unterfangens. Mir ist klar das es keinen Schutz gegen ein gezieltes Ausspähen ist, aber es erschwert die automatisierte, preiswerte Auswertung von Daten die mit mir zu tun haben.

Ein anderer Grund ist der Spass an der Sache und das dabei gesammelte Wissen.

Lange Vorrede, hier zum Thema – ich stelle den ersten, von hoffentlich vielen weiteren, Services zum selber hosten vor: mein DynDNS.

DIY Pläne und Zahnschmerzen.

Das war jetzt der dritte Zahnarzttermin in knapp vier Wochen und der vierte steht schon fest. Auch dieser wird wohl nicht der Letzte sein. Trotz Betäubung tut mir jedes mal der Kiefer dermaßen weh das ich nach der Behandlung erstmal 24 Stunden nicht mehr lächeln kann. Außerdem schlägt diese Behandlung immer ganz schon auf die Konzentrationsfähigkeit, von Kopfschmerzen mal abgesehen.

Gestern Abend habe ich mir mal meinen vServer vorgenommen und beim Apache das NameBasedVirtual Hosting konfiguriert. In diesem Zug hab‘ ich gleich noch Subdomains für die einzelnen Dienste erstellt. Ich mag es irgendwie nicht wenn die einzelnen Webservices auf Unterverzeichnissen liegen, also www…de/webmail und www…de/ttrss usw. Das hat auch den Vorteil das nun die Dienste in von einander getrennten Verzeichnissen laufen und jeder Dienst sein eigenes Logfile usw. hat.

Der Transfer von TinyTinyRSS von meinem DynDNS Host auf meinem Internet Host war dadurch doch ein wenig umfangreicher als ich dachte. Eigentlich wollte ich den Umzug nochmal als „Copy & Paste“ Installanleitung als extra Seite anlegen, aber ich hab‘ dann gemerkt das es zu viele Anpassungen sind um es als allgemeine Anleitung zu schreiben. Ich werde wohl eine Installation in einer VM machen und diese dann als Grundlage für Anleitungen nehmen. Ich habe schon eine neue Kategorie unter Projekte angelegt. Das ganze soll dann mal ein Archiv für alle die eventuell auch mal den einen oder anderen Dienst selber hosten wollen oder werden.

Hier mal eine Zusammenstellung was ich vorhabe selber zu Hosten:

  • EMail inkl. Push bzw. IMAP Idle und Webinterface (bereits im Einsatz).
  • RSS Feed aggregator mit Webinterface und Androidclient (bereits im Einsatz).
  • Kalender mit Webinterface, Android und „portable“ App Synchronisierung. (noch am sondieren)
  • Kontakte mit Webinterface, Android und „portable“ App Synchronisierung. (noch am sondieren)
  • Dropbox ähnlicher Dienst, auch mit Webinterface, Androidclient und Einbindung in Windows/Linux/OSX als Laufwerk bzw. Verzeichnis. (quick and dirty Lösung im Einsatz)
  • ToDo Liste mit Webinterface, Android und „portable“ App Synchronisierung. (im Test befindlich)
  • DynDNS (da schwebt mir etwas mit IPv6 und Zonetransfers vor, ein Kumpel hat soetwas am Laufen)
  • Bookmarks, Passwörter und der gleichen am besten auch per Webinterface, zum Android und natürlich auf allen Browsern
  • subversion mit https+svn und webdav zugriff

Im Grunde könnte ich eine Groupwarelösung oder soetwas in der Art nehmen. Aber irgendwie sträube ich mich gegen diese Monsteranwendungen. Ich bilde mir ein, daß wenn es da mal ein Problem geben sollte, ich nichts richten kann. Ich hab‘ mir mal funambol installiert und: „AUA da waren nach dem Start gefühlte 40 Ports offen“. Vielleicht ändere ich meine Meinung ja noch, aber erstmal werd‘ ich versuchen für jeden Dienst eine passende Lösung zu finde. Soweit es geht dabei offene Standards zu benutzen, also vCard und vCal und soweiter.

Was auf keinen Fall fehlen darf ist eine Überwachung, ich kann ja schließlich nicht ständig checken ob jedes installierte Softwarepaket noch auf dem neusten Stand ist. Dafür werd‘ ich Nagios einsetzen. Ich mag Nagios, all die schönen hoffentlich grünen Lämpchen ;) Ich seh‘ mich halt irgendwie noch als Netzwerkadmin. Es macht mir Spaß die Dienste aufzusetzen und anzupassen bis sie rund laufen. Es ist ein wenig so wie früher Rechner zusammenbauen. Dazu hab‘ ich heute allerdings kaum noch Lust.

Soweit meine Pläne, euch wünsche ich ein schönes Wochenende.

DIY – Google Reader.

Das Internet in der Hosentasche macht’s möglich. Jede Mail ist Sekunden nach dem Eintreffen schon gelesen und dann sitzt man im Bus und fragt sich was man jetzt noch alles machen könnte. Früher hatte ich immer den heise online | 7-TageNews  als Startseite meines Browsers, ich hab‘ mehr oder weniger regelmässig die Seiten meiner Freunde abgeklappert und failblog und Seiten, mit täglich frischen Inhalt, hab‘ ich meist alle paar Tage aufgearbeitet. Das war etwas mühsam so, aber ich kannte es nicht anders. Dann hab‘ ich bei einem ehemaliger Arbeitskollegen gesehen, daß er immer seinen GoogleAccount auf dem Zweit-Bildschirm offen hatte und da kamen die News von allen Seiten die ihn interessierten zeitnah rein. Das fand ich toll.

Die Idee ist schon älter und viele werden das Prinzip kennen. Eine Webseite kann ihren Nutzern über eine spezielle URL alle News in Kurzform anbieten. Dies nennt man dann Newsfeed übliche Formate sind hier RSS oder Atom. Jetzt installiert man sich einen Feedreader und aboniert diese Feed. Also man gibt im Reader einfach diese spezielle URL ein und sagt ihm lad die URL alle xy Minuten.

Das ist super, hat aber einen Haken. Bei steigender Zahl und Frequenz der abonierten News verliert man die Übersicht was man schon gelesen hat und was neu ist. Für den Feedreader ist das kein Problem, er merkt sich einfach was man schon mal angeklickt hat und zeigt nur die ungelesenen News als Neu an. Nur jetzt muss man den Feedreader immer dabei haben. Auf zwei PCs installiert würde das nicht funktionieren, der zweite Feedreader würde ja nicht mitbekommen was ich im Ersten schon gelesen habe.

Es gibt zwei Lösungen für das Problem:

  • Erstens man verwendet eine protable Anwendung aus einem USB Stick. Mit allen Nachteilen die einem so einfallen, läuft nur auf einem Betriebssyste. Muss man immer dabei haben und so weiter.
  • Die zweite Möglichkeit ist den Feedreader als webbasierte Anwendung ins Internet zu bringen. Dann bräuchte man „nur“ einen Internetzugang und hat alles an einem Ort.

Google bietet die zweite Möglichkeit an, ihr Produkt heißt einfach nur Reader. Mit meinen Android und meinem neu entdeckten Google Account habe ich den mal ausprobiert. Funktioniert super. Es gibt eine App um auch unterwegs auf die News zuzugreifen. Statt dem Heise-Newsticker hatte ich jetzt den Google Reader als Startseite. Egal wo ich meinen Chrome gestartet hab‘, immer wurden alle News angezeigt die ich noch nicht gelesen habe.

So nun kommen wir zu dem Teil um den es mir eigentlich geht. Welches Intresse hat Google daran mir (uns allen) sowas kostenlos anzubieten. Ich hab‘ mir meine abonierten Feeds angeschaut und festgestellt das die Auswahl der Feeds ja eigentlich schon viel über mich aussagt. Dazu kommt noch das jemand der sich mein Nutzerverhalten anschaut, also ob ich nach dem News lesen neue URLs auf mache, doch einiges über mich erfahren könnte.

Genau darum geht es beim „Selber machen“. Ich will nicht das Firmen in der Lage sind solche Daten über mich zu sammeln, zumindest nicht so leicht.

Ich suchte also ein „Programm“ das möglichst alle Funktionen des Google Reader bietet die mir wichtig sind:
Webinterface das ich als Startseite einbauen kann und bei dem ich News lesen, neue Feeds abonieren kann usw.

  • Eine Android App, bei der mindestens das Lesen der News, sodass sie auch im Webinterface als gelesen angezeigt werden, möglich ist.
  • Auf den eigenen Server installierbar und betreibbar, also auf meinem Server im Internet und meinem per DynDNS erreichbaren Rechner zu hause.
  • Möglichst preiswert.
  • OpenSource wäre mir lieb.

Ich glaube zwar nicht das ich selbst ran gehe und da was verändere, aber wenn ich doch mal den Wunsch hätte, fände ich es gut die Möglichkeit zu haben, deshalb OpenSource. Ich hab‘ eine Weile gesucht und habe

Tiny Tiny RSS

 

gefunden. Es ist eine in PHP geschriebene Software. Die Installation ist auf der Homepage beschrieben und verlief ohne Probleme. Die Android App funktionierte bisher ohne Probleme und wie ich grade lese gibt es sogar eine Chrome Extension (die hab‘ ich noch nicht getestet, vielleicht entfällt damit ein Kritikpunkt).

Alles in allem ist das ein schönes Stück Software, die mir hilft mich ein wenig weiter von Google zu entfernen. Zur Zeit betreibe ich TinyTinyRSS bei mir Zuhause im „Multi User Betrieb“. Vielleicht wäre der „Single User“ mit HttpAuth schneller. Ein paar Kleinigkeiten stören mich noch (sollte ich eine Lösung dafür finden werd‘ ich hier den Beitrag updaten):

  • Die Android App braucht manchmal ziemlich lange bis die News anzeigt werden. Gefühlt bis 30 Sekunden, wobei das Anmelden und das Abholen etwa gleich lange brauchen. Könnte sein das ich da noch was optimieren kann an meinem Server.
  • Im Webinterface muss man sich immer Einloggen. Ich weiß nicht recht wie der Google Reader das macht, der merkt sich die Sessions „besser“.
  • Machmal muss man sich mehrmals einloggen bis er die Anmeldung annimmt.
  • Auch das Webinterface läd beim ersten Zugriff langsam (wie gesagt, mal sehn was ich da noch machen kann).

Hat jemand dieses Problem auch gehabt und vielleicht sogar eine bessere Lösung? Ich bin offen für Verbesserungsvorschläge.