DokuWikiで情報発信

個人での情報発信や社内での情報共有に便利なDokuWikiを紹介するサイトです。

ユーザ用ツール

サイト用ツール


サイドバー

目次

DokuWikiを理解

DokuWikiの構築

よく確認するページ

seo:robots



「SEO」に戻る

robots.txtとは。robots.txtの利用例

robots.txtとは

robots.txtはGoogleなどの検索エンジンのクローラー(ボット)がサイトをチェックする際の制御ファイルです。

クローラーは1度に確認するページは限られているため、できる限り重要なページにリンクを多くはり、重要なページに行ってもらうようにしましょう。


DokuWikiでrobots.txtを利用する場合の例

User-agent: *
Disallow: /*do=login
Disallow: /*do=edit
Disallow: /*do=diff

Sitemap: https://dokuwiki.oreda.net/?do=sitemap

User-agent: *は、ユーザエージェントの種類で、*で全てのボット対象とするという意味です。


robots.txtの動作確認

SearchConsoleの「クロール」の「robots.txtテスター」からrobots.txtの動作確認ができます。
「送信」ボタンを押してみましょう。

エラーや警告が0件なら問題ありません。





「SEO」に戻る




seo/robots.txt · 最終更新: 2018/10/01 by oreda admin

ページ用ツール