Bots für die Statistiken von menschlichen Besuchern unterscheiden?

Ich bin auf der Suche zu Rollen, meine eigene, einfache web-stats script.

Einzige große Hindernis auf dem Weg, so weit wie ich sehen kann, sagt den menschlichen Besuchern abgesehen von bots. Ich würde gerne eine Lösung haben für das, was ich nicht halten müssen, um auf einer regelmäßigen basis (d.h. ich will nicht zum aktualisieren von text-Dateien mit bot-bezogene User-agents).

Ist es keine offenen Dienst, der bedeutet, dass, wie Akismet für spam?
Oder gibt es ein PHP-Projekt, das speziell auf die Erkennung von Spidern und bots und bietet häufige updates?

Zu klären: ich bin nicht auf der Suche zu blockieren bots. Brauche ich nicht zu 100% wasserdichten Ergebnisse. Ich habe gerade
ausschließen wollen so viele, wie ich aus meinen Statistiken. In
wissen, dass die Analyse der user-Agent ist ein
die option, gleichzeitig jedoch die Muster zu
Parsen ist eine Menge Arbeit. Meine
Frage ist, ob es eine
Projekt-oder service, die das tut
schon.

Bounty: ich dachte, ich schubse diese als Referenz Frage zu dem Thema. Die besten /originellsten /besten technisch tragfähige Beitrag erhalten Sie das Kopfgeld Höhe.

InformationsquelleAutor der Frage Pekka 웃 | 2009-11-11

Schreibe einen Kommentar