何とも面倒臭いものが出て来たものです。今日私にもやって来ました。
To: (略) Subject: Notify about your e-mail account utilization. From: (略) Dear user of Fdiary.net gateway e-mail server, Our antivirus software has detected a large ammount of viruses outgoing from your email account, you may use our free anti-virus tool to clean up your computer software. For further details see the attach. Attached file protected with the password for security reasons. Password is 64005. The Management, The Fdiary.net team http://www.fdiary.net
From のドメインも同じく fdiary.net になっていて、何ともセコい。
そんな自動で解凍できないようなものはウィルススキャナで対応できないよなぁ、と思っていたら、qmail-scanner のメーリングリストで、clamav にメールファイルそのものを食わせるとちゃんと判定するという情報を得ました。やるなぁ>clamav。
さっそく、qmail-scanner の configure オプションに '--redundant yes' を追加しました。その後やってきた同種のウィルスはちゃんとウィルススキャナにひっかかるようになりました。
最近、第二 tdiary.net 兼 fdiary.net wikifarm の自宅サーバがどうも過負荷気味です。はじめ、「どこかの日記が slashdotted されたの?」と思ったのですが、調べてみたらどうも違うようでs。
結局、Johnny's Wiki の中のジャニーズアイドルの各ページが、サーチエンジンの検索結果で上位にあるため、そこからのアクセスが最近急に増えたから、というのが真相みたい。
つまり、一過性のものではないというのが分かったので、それはそれで負荷対策を考えないといけません。hiki を mod_ruby 運用できればいいのだけれど、現状の hiki の枠組ではちょっと抵抗があって、たけうちさんが多忙の隙にそのあたりを大改造する野望もあったのだけれど果たせず、高林さんの hikid に走るにはメモリが心配で、とかとか、すぐにできる解決策はなさそうです。とりあえず、fdiary.net wikifarm の方も第二 tDiary.Net と同じく mod_limitipconn によるアクセス制限を 3 から 2 に減らしました。
いざとなったら、ほとんど常時通電しているもう一台のマシンに fdiary.net wikifarm を移すしかないかなぁ。
第二 tDiary.Net のように、せめてサーチエンジンのボット向けに静的な HTML をつくってそちらに誘導すればちょっとは負荷が軽くなるかなと思って、hiki をちょっといじって静的な HTML を用意するまではできたのですが、'.../?hoge' な URI がうまく rewrite してくれなくて悩んでいます。
# for /wikiname/ RewriteCond %{HTTP_USER_AGENT} (Googlebot|....) RewriteRule ^/([^/]+)/?$ /home/wiki/wikidata/$1/cache/text/FrontPage [L] # for /wikiname/?pagename RewriteCond %{HTTP_USER_AGENT} (Googlebot|....) RewriteRule ^/([^/]+)/\?(.+) /home/wiki/wikidata/$1/cache/text/$2 [L] # for /wikiname/pagename.html RewriteCond %{HTTP_USER_AGENT} (Googlebot|....) RewriteRule ^/([^/]+)/(.+)\.html$ /home/wiki/wikidata/$1/cache/text/$2 [L]
この三組の設定のうち、一つ目と三つ目はちゃんと働くのですが、二つ目がうまくいきません。どなたか分かる人がいらっしゃれば教えてくださいませ。m(_ _)m
[追記→修正] YAA さんのツッコミを元に、
# for /wikiname/?pagename RewriteCond %{HTTP_USER_AGENT} (Googlebot|....) RewriteCond %{QUERY_STRING} !. RewriteRule ^/([^/]+)/$ /home/wiki/wikidata/$1/cache/text/FrontPage [L]
# for /wikiname/?pagename RewriteCond %{HTTP_USER_AGENT} (Googlebot|....) RewriteRule ^/([^/]+)/$ /home/wiki/wikidata/$1/cache/text/%{QUERY_STRING} [L]
と変更してうまくいくようになりました。どうもありがとうございました>YAA さん。
Yahoo! BB クイズに答えてクルマを当てよう!! というプレゼント企画で、206 CC、206 Style、206 SW、206 Roland Garros の 4 車種が当たるそうな。
%{QUERY_STRING} あたりでしょうか。>rewrite