Motivation
Seit es Google Reader nicht mehr gibt bin ich auf Feedly ausgewichen. Allerdings will mir die Lösung nicht so ganz gefallen. Die App ist zwar IMHO top aber der Server-Teil nicht. Ich kann nicht gut suchen außer ich steige auf die pro. Version um und das größere Problem ist, ich kann nicht beliebig weit zurück gehen.
Zumindest zu dem Zeitpunkt an dem ich mich angemeldet habe wäre schön. Geht aber nicht :verzweifel:
Projektbeschreibung
Das Projekt gliedert sich daher in drei relativ einfache Teile.
Management Server
Hier kann man seine Feeds eintragen, sich registrieren, anmelden, etc.
Dieser Teil stellt auch eine REST-API zur Verfügung damit die Reader-App abfragen kann welche Artikel zum Lesen bereit stehen und mittels der, der Worker bekannt geben kann wann ein neuer Artikel zur Verfügung steht und welche Feeds er scrappen soll.
Es ist vom Management Server noch keine Zeile Code geschrieben. Wird allerdings in Node implementiert werden.
Reader App
Eine Android-App die simple HTML-Files anzeigt und über eine REST-API vom Management-Server erfährt welche Artikel es denn zum Lesen gibt. Diese werden dann in einer simplen WebView angezeigt.
Auch hier ist noch keine Zeile Code geschrieben. Wird aber klassischerweise eine mit Java geschriebene Android-App. Vermutlich in Form eines Eclipse-Projekts
Worker
Ein Tool das in periodischen Abständen nach sieht welche Feeds es gibt, diese ausliest und die Artikel scrapped. Scrappen bedeutet in dem Fall den Content extrahieren und in ein HTML-File schreiben. Der Standort des Files wird dann dem Management-Server mitgeteilt.
Ziel ist es, hier verschiedene Standorte anbieten zu können. Früher ging es, dass man im public Dropbox-Ordner HTML-Files ablegt die von außen sichtbar sind, aber der wurde leider gekilled :mad:
Also werden die Files im ersten Anlauf nur mal lokal gespeichert. Dort müssen sie dann per Webserver angeboten werden. Mögliche Optionen für die Zukunft sind also:
- Dropbox dennoch implementieren. Denn Benutzer die den Public Folder noch haben können hiermit noch HTML-Files hosten.
- Google Drive - Da müsste ich allerdings irgendwie den Preview-Link herausfinden.
Der Worker wird in Java geschrieben. Ich habe so einen ähnlichen Scrapper schon in JS mit Node geschrieben. Das lief aber nicht so rund wie ich mir das vorgestellt habe. Deshalb habe ich das ganze in Java neu implementiert. Bin zur Zeit zufrieden.
Ist ein Ant/Eclipse-Projekt. Im Moment ist das Ant-File nur dazu gut die Dependencies mit Ivy zu verwalten. Der Rest passiert in Eclipse. Wird aber noch besser :o)
Status
Projekt-Repositories
[ul]
[li]Worker-Repository[/li][li]Management Server N/A [/li][li]Android App N/A[/li][/ul]
Updates
[ul]
[li]2014-02-04 Worker der Feeds scrappen kann und deren Artikel lokal speichert ist in einer ersten Version fertig.[/li][li]2014-02-08 Ein Projektforum wurde von Byte-Welt gesponsert. [/li][/ul]
Was haltet ihr von der Idee?