jens4ever
Goto Top

Linux: Website-Screenshot via Kommandozeile erstellen

Moin zusammen,

ich habe eine VM auf meinem Heimserver, die div Skriptjobs macht. Ich stelle gerade teils auf Linux um und finde für eine Sache keine Lösung und würde gern mal eure Meinung hören. Vielleicht habt ihr ja einen guten Tipp für mich.

Ich würde gern von Websites einen Screenshot machen via Kommandozeile. Auf meiner Win VM war es bisher so, dass ein Script den IE mit der Seite öffnete, 10 sek wartete bis die Seite fertig geladen war und einen screenshot machte. Das Verfahren ist natürlich etwas fehleranfällig/nervig, Werbung, Seite nicht fertig geladen, Fenster geht auf oder hängt sich auf, etc.

Kenn jemand vielleicht ne Möglichkeit das mit einer Render Engine auf dem Raspberry zu machen, die kein UI hat?

Danke für deinen Tipp.
Jensen

Content-Key: 272848

Url: https://administrator.de/contentid/272848

Printed on: April 20, 2024 at 05:04 o'clock

Member: Jens4ever
Jens4ever May 24, 2015 at 16:12:48 (UTC)
Goto Top
Dann doch noch was gefunden: cutycapt

https://www.youtube.com/watch?v=Oy3XjawQjlQ
Member: broecker
broecker May 24, 2015 at 17:50:14 (UTC)
Goto Top
Moin,
warum denn Screenshot? - Standardmittel für das "normale" Auslesen einer Website ist wget unter Linux/UNIX,
da kann auch -r -rekursiv, -c wiederholen, bis es klappt, Passworte etc. mitgegeben werden: man wget
Je nach Anwendung vielleicht nützlicher.
HG
Mark
Member: Jens4ever
Jens4ever May 27, 2015 updated at 12:53:45 (UTC)
Goto Top
Ok vielleicht bin ich auf dem falschen Dampfer. Beispiel: Ich habe zu Hause ein Kindle Fire an der Wand und auf meinem Server ne Website mit Live Infos. Z.B. Wetter. Das muss ich ja irgendwo abgreifen und es darf auch noch nett aussehen mit Grafiken.

Wie würdest du auf der Seite http://www.wetter.com/wetter_aktuell/wettervorhersage/3_tagesvorhersage ... die Wetterdaten abgreifen, wenn nicht mit Screenshot?

Mich interessiert das Wetter von heute (oben link MORGENS bis Stück weiter unten rechts 10 / 10 °C)

Grüße und danke....

PS: Ja ist ein Luxusproblem...
Member: broecker
broecker May 27, 2015 at 14:06:49 (UTC)
Goto Top
wget http://www.wetter.com/wetter_aktuell/wettervorhersage/3_tagesvorhersage ...
liefert eine html-Seite zurück: "3_tagesvorhersage/?id=DE0004130",
das kann ein cron z.B. stündlich machen,
die Datei sieht gräßlich CSS/HTML/DIV'ig aus, aber Temperaturen sind darin enthalten - also nicht nur in Bildchen,
welche Zeile man nun braucht und wie man sie ausschneidet? - mit lauter Linux-Basisbefehlen: head, tail, wc, grep - oder eleganter mit sed, awk - das Ergebnis kann man in eine Datenbank hauen oder auch wieder in eine HTML-Seite auf dem Apache includen.
Bestimmt gibt es von Meteorologischen Instituten o.ä. weniger aufgeblasene Infos?
Oder eine mobile Ansicht?
Aber das sei erstmal der Weg.

einfacher wäre als cron
cd /var/www/htdocs/
wget -k -r --level=2 http://www.wetter.com/wetter_aktuell/wettervorhersage/3_tagesvorhersage ...

einfach eine lokale Kopie der Webseite in den Documentroot des Webservers, auf den mit Webclient zugegriffen wird.

HG
Mark
Member: wiesi200
wiesi200 May 27, 2015 at 14:32:44 (UTC)
Goto Top
Zitat von @Jens4ever:

PS: Ja ist ein Luxusproblem...

Die Luxus Lösung.

Mit PHP die einzeldaten abgreifen. Vielleicht gibt's auch hier bei fertige Schnittstellen und die zu einen neuen eigenen schönen Webseite Parsen und dann auf dem Kindle Darstellen und per JavaScript den Refresh machen.

http://www.php-kurs.info/tutorial-webseiten_auslesen.html