他にも苦しんでいる人がいるかもしれないのでメモ。
'IO Data WN-B11/PCM' というのを使っているのですが、'orinoco_cs' ドライバがしょっちゅう
kernel: NETDEV WATCHDOG: eth0: transmit timed out kernel: eth0: Tx timeout! ALLOCFID=ffff, XCOMPLFID=ffff, EVSTAT=8000
というログを残してだんまりになっていたのですが、'hostap_cs' ドライバを使うように変更したらすこぶる安定しました。なお、それにともなってインタフェイス名が eth0 -> wlan0 に変わりました。
LL Saturday (Lightweight Language Saturday) に参加するため、8/9 に東京に行くことになりました。それにしても満員御礼直前に申し込みが間に合ってよかった。
今後しばらく、'v0_2' ブランチで開発を進めることにします。実装とは言っても、例によって tDiary からいただきまくりです。まだマージしたばっかりであちこちが未整理ですが、かなり見通しはよくなってきたかな。
それにしても、MoBo は私の書いたものの中ではかなり事前の設計に時間をかけたつもりなのですが、その後ことごとく仕様変更をすることになってしまっていて、なかなか初めからきっちり仕様をつめるのは難しいものだなぁと痛感しています。でもまあ、マイナーなうちに大幅な仕様変更をしておけば後々楽になるだろうと思いながら、このままずっとマイナー路線だったら切ないなぁ、なんて思っています。
今日は、Linux での音声合成というか日本語読み上げシステムをあれこれ試してみました。
どちらも、ざっと読んだ範囲では自由に使えるライセンスのようで、kakasi で日本語の読みを得て、それを一文字ずつその音の音声ファイルを再生する、というシンプルなものです。
前者の yomi は JPerl 必須なのでちゃんと試していませんが (音声ファイルは利用させていただきました)、後者の suzume は、音声ファイルの出力が MIDI 形式で、個々の音 (「か」とか「ぎゃ」とか) をそれぞれ別の音色として再生するというのが興味深い。そういう仕組みなら、(高低の) 抑揚とか歌うとかも簡単かもしれません。
でも実際にやろうとするなら、「一文字ずつ音を連続再生」という枠組み自体の限界はもちろんあると思いますが、それ以上に、いろんな単語の抑揚のデータが入手できるかがネックなのかな (kakasi が提供してくれるのはあくまで読みだけ)。こういう人海戦術なリソースは、なかなかフリーなものだけでは厳しいのですよね... (日本語入力システムとかもそうかも)。
でも、Ruby ベースで ChaSen とか MeCab とかを使うような日本語読み上げシステムを作るのは面白いかも。あぁ、またたいへんそうなことに首をつっこんでしまいそうな予感 (でも名前募集、とか言ってみる...
とりあえず、某チャンネルをリアルタイムでコンピュータに読み上げさせて遊んでいたのでした。
LL Saturday 参加定員が少ないんでどうしようか迷ってました.
当日のレポート楽しみに待ってますね.