sarekhl
Goto Top

Analyse von WebServer-Logfiles

Hallo zusammen,

ich suche ein vernünftiges Tool zur Analyse der Logfiles, die mir mein WebServer zur Verfügung stellt. Unter Vernünftig verstehe ich vor allem zwei Kriterien:

  1. Ich muß für jede einzelne Datei (auch PDF's) die Zahl der Zugriffe (Hits) ermitteln können
  2. Das Programm soll (z.B. anhand der IP-Adresse oder der übermittelten Browser-Kennung) erkennen, ob der Zugriffe von einem der gängigen Suchmaschinen-Robots kommt und diese Hits nicht mitzählen. Ich möchte ein Ergebnis, daß möglichst genau wiedergibt, wieviele echte Benutzer zugegriffen haben.

Das Programm soll übrigens auf meinem Windows-PC laufen und nicht auf dem WebServer!


Hat jemand eine Idee?


Danke,
Sarek

Content-Key: 185422

Url: https://administrator.de/contentid/185422

Printed on: April 25, 2024 at 13:04 o'clock

Mitglied: 60730
60730 May 23, 2012 at 21:58:06 (UTC)
Goto Top
Salü Sarek,

magst du vielleicht noch mal kurz über deine Frage schauen?fehlt da nicht was?

PS:
Das Programm soll übrigens auf meinem Windows-PC laufen und nicht auf dem WebServer!
Du kennst den Logparser? das ist das Mittel der Wahl für sowas ("wenn")

Gruß
Member: SarekHL
SarekHL May 23, 2012 at 22:14:50 (UTC)
Goto Top
Hallo Timo,

magst du vielleicht noch mal kurz über deine Frage schauen?fehlt da nicht was?

hm, mir fällt da gerade nichts auf ...


Du kennst den Logparser? das ist das Mittel der Wahl für sowas ("wenn")

Das ist ja ein sehr allgemeines Tool. Ich glaube nicht, daß der weiß, wie man einen durch einen echten Besucher verursachten Hit von einem Hit durch einen Suchmaschinen-Spider unterscheidet. Die Hersteller von spezieller Weblog-Analyse-Software sollten das dann schon eher wissen.
Member: Lochkartenstanzer
Lochkartenstanzer May 23, 2012 at 22:46:17 (UTC)
Goto Top
Moin,

Ich antworte Dir mal trotzdem:

versuchs mal mit awstats.
Mitglied: 60730
60730 May 23, 2012 updated at 22:49:59 (UTC)
Goto Top
Zitat von @SarekHL:
Hallo Timo,

> magst du vielleicht noch mal kurz über deine Frage schauen?fehlt da nicht was?

hm, mir fällt da gerade nichts auf ...

frei nach einem der 3 Schrotthanseln, man kann Nudeln machen warm, man kann Nudeln machen kalt...
  • Ich hab ausschliesslich Apachen, die auf nem Pinguin tanzen für meine Webserver...
  • Und auf die komme ich per ssh, oder die schicken mir die Logs auf einen Kasten
Du kennst den Logparser? das ist das Mittel der Wahl für sowas ("wenn")
Das ist ja ein sehr allgemeines Tool.
Ich glaube nicht, daß der weiß, wie man einen durch einen echten Besucher verursachten Hit von einem Hit durch einen Suchmaschinen-Spider unterscheidet.
Doch doch, so schnell klickert kein normaler User auf so viele Seiten...
Und dann hinterlassen die meisten auch ne spezielle Spider Kennung mit...wie zum Bleistift crawler.googlebot.bla
Die Hersteller von spezieller Weblog-Analyse-Software sollten das dann schon eher wissen.

Naja, also aus Erfahrung...
Wenns nix kostet taugts nur bedingt?
Von daher - quanta costa cordalis?