画像は公式ブログから
筆者も久しぶりに使ってみましたが
昔とは比べ物にならないくらい便利になっていました
それに今回(既知のロボットやスパイダーからのヒットをすべて除外します)という項目が選べるようになりました
しかし、このページをご覧になってもわかりますが「忍者アナライズ」をホームページ解析に使っています
なぜ「忍者」なのか? 実際日本におけるトップシェアらしいです
それを語るには、まず「アクセス解析」の重要性について語らないといけません
ホームページを「見に来てくれる」のは「人間だけではありません」
じゃあだれか?
それは「ボット」と呼んでいる存在です
Botとはプログラムによって自動化されたロボットの様なものです
(実際に肉体は無いので、厳密にはプログラムです)
ホームページを更新すれば「どこ直したの?」と見に来ます
「どこかしこでリンクされてたから見に来た~」と探りに来ます
「なにか疑わしいことしてないですか?」と調査しにきます
こっちは「実際の人」が見に来て、その人がどんな行動をしていったか?
そしてそれに合わせて「ホームページを改善」したいのに
ロボットに付き合っている暇はありません
(検索をされて結果が上位に入る為にロボットに付き合いますが、第一には「人に評価される」ことを目指してホームページを作ります。見やすく分かりやすい、それでいて先進的なサイトデザインを考えてますが……一向に見えてきません)
通常、ボットの行動もアクセス解析のデータに紛れ込んできます
それがGoogleアナリティクスでは「自分で除外」しなくてはいけませんでした
それは今では途方もない作業で……正直やっていられません
そこで前述の「忍者アナライズ」の優秀性が際立ちます
「忍者アナライズ」で表示されるデータは「人間」のアクセスです
これは「少なく見積もって」の人間だとは思っています
経験的にSNS経由でアクセスされた人間を取りこぼしているように見ていますが
少なくとも「実際の人間の来場データ」が解析できます
それに「ほぼリアルタイム」で解析できます
その「ボット」を除外できるようになった「Googleアナリティクス」ですが
情報が多すぎる!
操作が謎すぎる!
リアルタイムに動かなすぎる!
と自分的には使いこなせていません……
ですので「忍者アナライズ」の解析ツールとしての地位に揺らぎは無いでしょうが
「ロボットフィルタリング」が搭載されたことにより、久々に本気で使ってみる事にします
0 件のコメント:
コメントを投稿