ブロック図はこんな感じ
配線はゴチャゴチャですが,意外とシンプル.
Ver.2を作るときは一枚にまとめたいです.
プログラムはこんな感じです.
前回はJuliusを使用しておりましたが,今回は
音声認識もdocomo apiに任せることにしました.
それに伴い,pyaudioで録音し送信する形を取っております.
参考にさせて頂きました.
http://qiita.com/kinpira/items/75513eaab6eed19da9a3
全体のフローは以下のとおり
- ボタン入力待ち
- マイクからデータ取得
- ボタンが離されるまで待つ
- 3を音声認識apiに送信.返答を受け取る.
- 4を雑談対話apiに送信.返答を受け取る.
- 5を発音
- 5の内容によって何かしらのアクション
GPIOにLEDとボタンを接続し,キーボードレスで
会話することができます.ここではLED点灯
のときボタンを押すとLEDが消灯します.
ボタンを押している間,録音が可能となっております.
ボタンの前はenterキーにしてました.
さらに顔モジュールと連動させるようにしました.
アクションはaction.pyにまとめられています.
適当なテキストを渡すと特定の単語を抽出し
マトリクスLEDを変化させます.
とりあえず思いつく限りの単語を登録しました.
動作の様子です.
全プログラムをもう一度まとめておきます.
0 件のコメント:
コメントを投稿