前回やった対策でGoooleのrobots.txt エラー「サイトにアクセスできません」が解消しました。
ちなみにその対策は
・エラーがでているサブドメインのルートディレクトリにサイトマップを手動で作成しアップ。
・robots.txtを作成して同じくサブドメインのルートディレクトリにアップする。
の2つです。
その結果Googleの検索結果から姿を消していたサイトが復活したようです。
これが近々のアクセス状況です。ほぼ検索結果から消える前の状態ですね。
12月7日に対策したのですが12月17日頃にグーグルにINDEXされ成果が出てきたようです。
いろんなキーワード検索でアクセスされてる模様。
ペラッペラの薄いサイトなんですけど
Googleがハミングバードを導入してからも検索結果の順位がそうは落ちていないんですよね。
これは競合サイトが少ないニッチなキーワードを狙っているからなのでしょうか。
コメント