True Depthカメラが搭載されたiPhone XシリーズやiPad Pro(第3世代)にHead Tracking入力して文字をタイプして、その文字列や文章をしゃべらせるアプリJabberwocky Hands-Free AACが海外のAACユーザーの間で話題になっています。
↑ ↑ ↑
アプリのアイコン
ダウンロードしてから90日間は無料で使用できるというので、試してみました。
アプリを初めて起動すると、下のようなHead Trackingの設定に関する説明文が表示されます。
Continueをタップすると「カメラへのアクセス権」に関する認証ウィンドウが表示されます。
ここで【OK】をタップすると「90日間は無料で使えますよ。ずっと使いたい場合は年間¥5,700をお支払いください。」というメッセージが表示されます。
【Begin free trial】をタップすると、90日間無料トライアル版アプリのインストールが始まります。
90日間トライアル版のインストールが完了すると、鼻を目印としたキャリブレーションが始まります。
①〜④の順番に鼻を円に向ければキャリブレーション完了です。
↓ ↓ ↓
キャリブレーションが完了すると、タイピングエリアとキーボードが表示されますので、顔を動かして文字をタイピングすることができるようになります。
Samが試してみた動画をYouTubeにアップしてみました。
↓ ↓ ↓
First Impression about Jabberwocky181126
また、デモ動画を開発者がYouTubeにアップしています。
↓ ↓ ↓
Jabberwocky AAC Demo (iPhone X)
iPadで試している動画はコチラです。
↓ ↓ ↓
Jabberwocky AAC Demo
Samが試してみて感じたことを以下に記します。
ただし、あくまでも私見ですので、興味のある方はご自身でお試しください。
①キャリブレーションは、視線入力で使うTobiiのドライバよりも簡単でした。
②ポインターを移動させるためには頭を動かす必要がありますが、わずかに動かすだけでポインターを動かすことができました。
③ポインターを留める(停留or滞留=Dwell)には慣れが必要だと感じました。これは、視線入力のときも同様でしたが、頭が自在に動かせるからではないかと思います。
④英語にしか対応していないので、それ以外の言語を使用している方が普段使いするにはハードルが高いと思います。ただし、英語圏の方々にとっては、2018年6月23日のブログiPhoneで視線入力ができるようになるかも?③〜Head TrackingでiPhoneを操作するで紹介したAntzFreeよりも実用的ではあると思います。
Android OSにはOpen SesameというHead Tracking入力システムがあり、すべてのアプリやAndroidの機能を操作することができます。
日本人でJabberwocky Hands-Free AACを使う方はいらっしゃらないかも知れません。
でも、顔を動かすだけで文字タイプ&読み上げができるという機能は、ALS患者さんなど一部の障害者にとっては意思伝達手段として有効かもしれません。
どこかのデベロッパーが日本語に対応したアプリを開発してくれませんかね。
↑ ↑ ↑
アプリのアイコン
ダウンロードしてから90日間は無料で使用できるというので、試してみました。
アプリを初めて起動すると、下のようなHead Trackingの設定に関する説明文が表示されます。
Continueをタップすると「カメラへのアクセス権」に関する認証ウィンドウが表示されます。
ここで【OK】をタップすると「90日間は無料で使えますよ。ずっと使いたい場合は年間¥5,700をお支払いください。」というメッセージが表示されます。
【Begin free trial】をタップすると、90日間無料トライアル版アプリのインストールが始まります。
90日間トライアル版のインストールが完了すると、鼻を目印としたキャリブレーションが始まります。
①〜④の順番に鼻を円に向ければキャリブレーション完了です。
↓ ↓ ↓
キャリブレーションが完了すると、タイピングエリアとキーボードが表示されますので、顔を動かして文字をタイピングすることができるようになります。
Samが試してみた動画をYouTubeにアップしてみました。
↓ ↓ ↓
First Impression about Jabberwocky181126
また、デモ動画を開発者がYouTubeにアップしています。
↓ ↓ ↓
Jabberwocky AAC Demo (iPhone X)
iPadで試している動画はコチラです。
↓ ↓ ↓
Jabberwocky AAC Demo
Samが試してみて感じたことを以下に記します。
ただし、あくまでも私見ですので、興味のある方はご自身でお試しください。
①キャリブレーションは、視線入力で使うTobiiのドライバよりも簡単でした。
②ポインターを移動させるためには頭を動かす必要がありますが、わずかに動かすだけでポインターを動かすことができました。
③ポインターを留める(停留or滞留=Dwell)には慣れが必要だと感じました。これは、視線入力のときも同様でしたが、頭が自在に動かせるからではないかと思います。
④英語にしか対応していないので、それ以外の言語を使用している方が普段使いするにはハードルが高いと思います。ただし、英語圏の方々にとっては、2018年6月23日のブログiPhoneで視線入力ができるようになるかも?③〜Head TrackingでiPhoneを操作するで紹介したAntzFreeよりも実用的ではあると思います。
Android OSにはOpen SesameというHead Tracking入力システムがあり、すべてのアプリやAndroidの機能を操作することができます。
日本人でJabberwocky Hands-Free AACを使う方はいらっしゃらないかも知れません。
でも、顔を動かすだけで文字タイプ&読み上げができるという機能は、ALS患者さんなど一部の障害者にとっては意思伝達手段として有効かもしれません。
どこかのデベロッパーが日本語に対応したアプリを開発してくれませんかね。
コメント