FeedCrawler automatisiert bequem das Hinzufügen von Links für den JDownloader.
FeedCrawler automatisiert bequem das Hinzufügen von Links für den JDownloader.
pip install -U feedcrawler
Hinweise zur manuellen Installation und Einrichtung finden sich im Wiki!
Benötigt Node.js, npm und pip:
cd feedcrawler/web_interface/vuejs_frontend
npm ci
npm run build
cd ../../..
pip install .
feedcrawler
in der Konsole (Python muss im System-PATH hinterlegt sein)
latest
getaggte Image nutzen.FeedCrawler kann zum Durchsuchen beliebiger Webseiten verwendet werden. Welche das sind, entscheiden Anwender durch das Befüllen der FeedCrawler.ini in der Kategorie [Hostnames]. Eingetragen werden dort Hostnamen, bspw. ab = xyz.com.
Parameter | Erläuterung |
---|---|
--log-level=<LOGLEVEL> |
Legt fest, wie genau geloggt wird (CRITICAL , ERROR , WARNING , INFO , DEBUG , NOTSET ) |
--config="<PFAD>" |
Legt den Ablageort für Einstellungen und Logs fest |
--port=<PORT> |
Legt den Port des Webservers fest |
--jd-user=<NUTZERNAME> |
Legt den Nutzernamen für My JDownloader fest |
--jd-pass=<PASSWORT> |
Legt das Passwort für My JDownloader fest |
--jd-device=<GERÄTENAME> |
Legt den Gerätenamen für My JDownloader fest (optional, wenn nur ein Gerät vorhanden ist) |
--delay=<SEKUNDEN> |
Verzögere Suchlauf nach Start um ganze Zahl in Sekunden (optional) |
--no-gui |
Startet FeedCrawler ohne GUI (optional) |
Der Webserver sollte nie ohne Absicherung im Internet freigegeben werden. Dazu lassen sich im Webinterface Nutzername und Passwort festlegen.
Es empfiehlt sich, zusätzlich einen Reverse-Proxy mit HTTPs-Zertifikat, bspw. kostenlos von letsencrypt, zu verwenden.