Sie sind nicht angemeldet.

Lieber Besucher, herzlich willkommen bei: Linux Forum Linux-Web.de. Falls dies Ihr erster Besuch auf dieser Seite ist, lesen Sie sich bitte die Hilfe durch. Dort wird Ihnen die Bedienung dieser Seite näher erläutert. Darüber hinaus sollten Sie sich registrieren, um alle Funktionen dieser Seite nutzen zu können. Benutzen Sie das Registrierungsformular, um sich zu registrieren oder informieren Sie sich ausführlich über den Registrierungsvorgang. Falls Sie sich bereits zu einem früheren Zeitpunkt registriert haben, können Sie sich hier anmelden.

1

15.09.2005, 11:28

[gelöst] Webseite über Bash Skript abfragen

Hallo,

ich würde gerne ein Shell Skript erstellen, dass in gewissen zeitabständen aufgerufen wird (über cron) und einen HTTP Request (Am besten über telnet, oder gibts ne bessere möglichkeit?) sendet.

Per Hand ist es kein Problem:
telnet www.----------.de 80
GET / HTTP/1.1
Host: ......
usw...

Aber wie kann ich diesen Vorgang automatisiert über einn Skript ausführen lassen?

TomH

in keinem Vorstand!

Beiträge: 212

Beruf: Systemadministrator

  • Nachricht senden

2

15.09.2005, 11:46

Um was zu erreichen?

Rauskriegen ob der Webserver läuft?


/usr/bin/wget -t 1 -O /dev/null www.webseite.de

bzw.
(/usr/bin/wget -t 1 -O /dev/null www.webseite.de | grep connected >/dev/null) || echo nein


das gibt 'nein' aus, wenn der Server nicht erreichbar ist.


Hope this helps
Thomas
Every feature is a bug, unless it can be disabled.

3

15.09.2005, 16:00

Ist es damit möglich den Reqest zu bearbeiten? Wichtig wäre der Referer, der User-Agent und Cookies!

TomH

in keinem Vorstand!

Beiträge: 212

Beruf: Systemadministrator

  • Nachricht senden

4

15.09.2005, 17:15

Ich frage nochmal Was willst Du erreichen? bitte versuche es so detailliert wie möglich zu beschreiben.

Soll getestet werden, ob der Webserver lebt, oder willst Du aus den Logs des Webservers herauslesen können, ob der Rechner, auf dem der cron Job läuft noch lebt, oder ???

Thomas
Every feature is a bug, unless it can be disabled.

5

15.09.2005, 17:42

Es geht um eine Überwachung der Webseite auf veränderungen. Dafür auch der dynamische Refferer, User-Agent etc...

wget scheint aber das richtige Tool dafür zu sein. Danke :)

TomH

in keinem Vorstand!

Beiträge: 212

Beruf: Systemadministrator

  • Nachricht senden

6

15.09.2005, 17:58

Quellcode

1
2
Es geht um eine Überwachung der Webseite auf veränderungen.
wget scheint aber das richtige Tool dafür zu sein. 


Ja, ist es, du schaffst das Ergebnis des ersten Aufrufs in eine Datei (statt /dev/null) und vergleichst bei den folgenden Aufrufen damit.

Quellcode

1
 Dafür auch der dynamische Refferer, User-Agent etc... 

diese Sachen spielen nur eine Rolle, wenn der Zielserver bestimmte Useragenten abschmettert, oder aber Du was zu verbergen hast ;-)


Thomas
Every feature is a bug, unless it can be disabled.

7

15.09.2005, 18:01

Transparenz ist mir wichtig ;-)
Es sollte schon klar erkennbar sein welche Zugriffe genau durch dieses Skript erfolgen.

Thema bewerten