音声認識でweb speech api を使う

今日考えていたことをメモがわりに書いておこう。
(1)ロボットNAOが受け取った人の言葉を音声ファイルに出力することは制御できるだろう。C++でライブラリ化することができる。
(2)そのファイルをPC、つまりMACbookに、無線ネットワーク経由で送ることもできる。
(3)MacでChromeを開いていて、ibotサイトを表示しているとすると、Chromeのweb speech api が使えるだろう。
(4)受け取った音声ファイルをJAVAで、実際の音として出力することはできるだろう。
(5)その音を、物理的コードを使って、マイク入力として直接入力することができるだろう。
(6)その入力に反応して、音声をweb speech apiがテキスト化することができるだろう。
(7)javascriptからjavaを呼びだして、そのテキストを、JAVAで解析して、求める答えを構成させることができたとする。
(8)それをロボットに送り込み、qichatの変数に組み込み、それを読み出させるイベントを発生させることができるだろう。
(9)ロボットは、その内容を喋るだろう。
※PCはインターネットに接続していなければならない。
以上