campfire のパトロン様に11月の折り図を配信しました。

campfire のパトロン様に、どうやって PDFファイルを配信するか。
をずっと考えていた。
campfire は patreon の日本語バージョンみたいなものだけど
patreon のように、パトロン様たちと詳細なファイルのやり取りができない。
やり取りできるのは、JPG,GIFなどの画像ファイルのみ。PDFはアウト。
サポートセンターに問い合わせてみると、
「他のウェブサービスにて対象ファイルのダウンロードリンクをご準備くださいますようお願いいたします。」
とのこと。
それじゃー、campfire 使う意味ねぇじゃん。

でもまぁ仕方ない。

最初に考えたのは、ファイル転送サービス。

sDrop や BitSend とか。

結構大きなファイルをやり取りできて、しかも暗号化される。パスワードも可。
でも残念なことに、保存期間が限定されていて、アーカイブされない。
つまりバックナンバーが欲しいという方に対応できない。

次に考えたのは、オンラインストレージサービス。

クラウド上にファイルをUPして、他の人とファイルを共有するというもの。
Dropbox とか Googleドライブ とか。

試しに、Dropboxを使ってみることにした。けど、
これが微妙に面倒くさい。
まず、自分のアカウントを作らないといけない。さらに、専用のアプリをインストールしなくちゃいけない。
登録した時点で、この案をボツにした。

最後に考えたのは、自分の借りているサーバーを利用するというもの。

origamio.com のホームページのサーバーはレンタルサーバーを利用している。
このサーバー内にPDFを用意しよう。っちゅうことなんだな。
しかし、ホームページと同じようにただ単にサーバーにアップしただけでは google とか yahoo なんぞの robot にキャッシュされてしまって、「ググるとファイルが検索されてしまう可能性がある」ということになってしまう。

そこで、.htaccess を利用してクローラを回避することに。
詳しいやり方を探してみると、とあるサイトにこうあった。

SetEnvIf User-Agent “Googlebot” shutout(Google)
SetEnvIf User-Agent “Slurp” shutout(yahoo)
SetEnvIf User-Agent “bingbot” shutout(Bing)
SetEnvIf User-Agent “Yeti” shutout(韓国の検索エンジン)
SetEnvIf User-Agent “Baiduspider” shutout(Baidu、中国の検索エンジン)

なんと、検索ロボットを個別に排除するらしい。
100% じゃねぇ。
しかも、私が愛用している検索サイト「DuckDuckGo」がここに含まれていない時点で、この方法で大丈夫か? って、気がする。

脱線だけど、私は検索サイトをひとつに絞らない方がいいと思っている。なぜって、検索結果の情報が偏ってしまうから。
どこかで読んだけど、yahooとgoogleは検索のアルゴリズムが同じなのらしい。似たような検索結果が出てくるのは当たり前なんだな。逆にyahooとgoogleが手を組んで日本に流れる情報を制御しようとしたら、できないことはないだろう。と思っている。
だから、私は Bing や DuckDuckGo も併用。何より、DuckDuckGo のアヒルが可愛い。

さて、このロボットの回避方法が「うーむ」なので、もうちょっと違う方法を探してみることに。
見つかったのが、.htaccess での「Basic認証」っちゅうやつ。

.htaccessの内容はちょーシンプルだった。
ただ、アホウな私は、.htpasswd のパスワード暗号化という処理が理解できなかったので、サーバー内でエラーが出まくって、どえらい時間がかかってしまった。
認証が成功した時は、思わずガッツポーズをしたんだな。

まぁ、なんやかんやでようやくPDFファイルをUP。
11月の折り図が用意できました。とさ。

——


検索エンジンはなぜ見つけるのか

Share

  • Add this entry to Hatena Bookmark

Follow Me