目次
-
- 社内Wikiおすすめの使い方 オススメ
-
- インストール 基本
- 設定 基本
- テンプレート 基本
-
- 最初に入れるお勧めプラグイン オススメ
- プラグイン一覧 オススメ
- DokuWikiの使い方 基本
- 標準機能でのページの書き方 オススメ
-
-
-
DokuWikiを理解
DokuWikiの構築
よく確認するページ
robots.txtはGoogleなどの検索エンジンのクローラー(ボット)がサイトをチェックする際の制御ファイルです。
クローラーは1度に確認するページは限られているため、できる限り重要なページにリンクを多くはり、重要なページに行ってもらうようにしましょう。
User-agent: * Disallow: /*do=login Disallow: /*do=edit Disallow: /*do=diff Sitemap: https://dokuwiki.oreda.net/?do=sitemap
User-agent: *
は、ユーザエージェントの種類で、*
で全てのボット対象とするという意味です。
SearchConsoleの「クロール」の「robots.txtテスター」からrobots.txtの動作確認ができます。
「送信」ボタンを押してみましょう。
エラーや警告が0件なら問題ありません。
一般向けサイト
ITエンジニア向けサイト
英語サイト
Portfolio
Copyright (c) 2024 DokuWikiで情報発信 All Rights Reserved.