Google hat im Google+ – Beitrag ‚Introducing Bot and Spider Filtering‘ mitgeteilt, einen neuen Filter für den Traffic aus Suchmaschinen-Robots und sonstigen Bots in Google Analytics implementiert zu haben.
In der Vergangenheit war es in Google Analytics sehr problematisch, den Traffic von Spidern, Suchmaschinen-Robots und sonstigen Bots vom realen Traffic und Benutzeraufkommen einer Webseite herauszufiltern.
Die Folge waren verfälschte Ergebnisse: Je nach Crawling-Itensität der jeweiligen Bots, wurde auf den Webseiten ein deutlicher Zuwachs an Traffic (Zugriffe, Seitenaufrufe, usw.) erzeugt, der jedoch keinesfalls auf tatsächliche Besucher zurückzuführen war.
Und schliesslich ist uns doch wichtig, wie viele Besucher und nicht wie viele Bots unsere Webseite besuchen
Google hat nun reagiert und einen schnell zu konfigurierenden Filter eingebaut: Mit nur einer Checkbox-Option in der Verwaltung Ihres Google Analytics-Konto können Sie den Traffic von bekannten Bots und Robots in Ihren Reports ausschließen. Dadurch können Sie künftig die tatsächliche Anzahl an Besucher Ihrer Webseite ermitteln. Google versprach ebenfalls, die Liste der bekannten Bots kontinuierlich anzupassen.
Wir zeigen Ihnen, wie Sie zu dieser Einstellung gelangen:
1. Öffnen Sie Google Analytics
2. Klicken Sie auf Verwalten (oben / rechts)
3. Klicken Sie rechts auf Einstellungen der Datenansicht
4. Setzen Sie den Haken bei Bots herausfiltern: Alle Treffer von bekannten Bots und Spidern herausfiltern
5. Fertig! Künftig wird der Traffic von Bots und Spidern in Ihrem Reporting ignoriert.
Antwort hinterlassen