スポンサーリンク

入院で速度制限かかって音声入力できないので色々試してみた

この記事は約4分で読めます。

まぁわかってましたが、僕のスマホのプランでは月に5GBまでしか使えないので、入院生活で確実に通信制限がかかるのは当然です。

一昨日の昼に低速になりました。1週間もしないうちに多分4Gくらいは消費したのではないかと。

ネットサーフィンものろのろのろのろ…

でもテキストだけのブログとか見る時に広告表示されるより前に読めてしまうのはいいですね(自分は広告で稼いでるのに広告回避する屑)

こうなることは予測して、あらかじめ実家のWiFiで、Amazonビデオで見たいドラマと映画をダウンロードしておきました。

その他にもダウンロードしておけるものはダウンロードしておいてから入院に臨みましたし、入院以降も、視聴済みのデータは消して、閉鎖病棟なので鍵開けてもらって外出して、近くのショッピングモールの無料WiFiで動画をダウンロードしたりして頑張ってますが、やはり低速になってから気付くことも多いというか、思わぬところで速度制限の悪影響が出てきます。

そのひとつに音声入力がありました。これは盲点でした。音声入力で使用される通信量なんて低速中でもなんとかなるだろうとたかをくくってました。

しかしこれが全然機能しない。

Simejiの音声入力は完全にダメです。何度やっても失敗、そもそも声を拾って出てくるはずの波形さえ、ビクとも動きません。

iPhoneの標準の音声入力も、例えば「入院生活7日目」と吹き込むと、かなり時間が経ってから「7日目」だけ入力されるような状態です。

わかめ
わかめ

あぁ…… ああぁ…………

あれぇ、でも昨日はこんなことには悩まずに普通にブログ書いてた覚えあるのにな、なんでだ、なんで昨日は音声入力で悩まなかった…?PressSyncでプレビュー生成するのに低速だからかなり時間かかって困ってた覚えはあるのに、音声入力で悩んでた覚えがない…昨日は音声入力使えてた?それともフリック入力だけでなんの痛手も感じずにあんな長文書いてたか…?…あれ……?

音声入力の機能は、音声データがサーバに送られて処理されて戻ってきて、テキストとして入力されるんですね。考えてみればわかるじゃないか…簡単なことじゃないか…

音声入力を実現するためには、音声をテキストに変換するために必要なデータ量も大きいし、CPUのスペックも必要ですよね…そりゃそうだ。

でもGoogleが、スマホ上でオフラインで使える音声入力の開発に成功してたみたいですね。今年の3月に。

Google、スマホ上で動きオフラインでも使える音声認識技術を開発 ~1文字単位でのリアルタイム音声入力を実現
 Googleは12日(米国時間)、スマートフォン上でオフラインでも実行できるニューラルネットワークによる音声認識技術を発表した。

比較的新しい情報ですね。それくらい音声入力の技術って難しいのだろう。

これじゃブログが書けない…(´;ω;`)

フリック入力はしんどいので…

…ふと疑問に思って、iPhoneのSiriでも試してみました。すると早く喋ると上手く音声入力できないのですが、ゆっくり喋るとなんとか高い精度で入力できました。

あれ、ということは、と思ってもう一度iPhone標準の音声入力で、今度はゆっくり喋ってみると、なんとか入力できました。

ただ、やはり精度が悪い。助詞や助動詞などが欠落してしまう。

でもなんでゆっくり話すと成功するんでしょうね?どういう技術?どういうアルゴリズム?

まぁいっか、iPhone標準の音声入力だけで何とかやっていこうと思います。あーなんだ、ゆっくり喋ってみると結構ちゃんと入力されますね。

でもiPhone標準の音声入力だと、どうしてSimejiではほぼ不可能な、低速での音声入力が一応はできるんだろう…

と疑問に思い、試しに機内モードで完全オフラインにして「お願いします」と言ってみました。

「morning are you CMOS」

な、なんやこれ…

「グッドモーニング」と言ってみました。

「good morning」

ふーん、iPhoneのオフライン音声入力は、英語ならできるんだ( ˇωˇ )

さっきのGoogleの技術と同じですね。

Appleも追いついたの?

でもそこに低速通信が加わると、精度は低いものの日本語音声入力もできちゃう。

ビリーヘリントン

どういうことなの…?

あーようわからん(レ)

まぁゆっくり喋ればiPhone標準音声入力はできるから良しとしよう、うん。

0
ブログランキング参加中です!クリックしてもらえるとありがたいです!
ブログランキング・にほんブログ村へにほんブログ村

コメント

タイトルとURLをコピーしました