写真 |
・聴覚障害者をサポートするツール
「The Live-Time Closed Captioning System(LTCCS)」もそんな1つで、もともとGoogle Glassのアイデアをもとに、開発者の1人Daniil Frants氏が着想したウェアラブルツールだ。
「LTCCS」は、メガネに装着するディスプレイ、マイクロコンピューター、高性能マイクの3つのパーツで構成されている。
・ディスプレイに、キャッチした会話をテキスト表示
ディスプレイはメガネのフレーム部分にクリップして装着し、マイクがキャッチした周辺の会話を、キャプションとして随時表示する。ユーザーは、テキストで周囲の会話を認識できるようになる。
高性能なマイクは、発話された言葉をキャッチ、分析し、正確にテキストに変換する。たとえ、周辺がガヤガヤとしていたとしても機能するというからすばらしい。
マイクは洋服などの襟元にクリップするタイプになっていて、小型なので不用意に目立たない。
Raspberry Piで動作するマイクロコンピューターは、軽くてスマートフォンと同サイズの大きさ。マイクがキャッチした発話は、リアルタイムでスムーズに解析、処理される。小型で軽量なので、ポケットや財布の中に入れて持ち歩ける。
・Indiegogoで出資受付中
聴覚障害者が日々の生活を送りやすいようサポートする「LTCCS」は、現在、クラウドファンディング「Indiegogo」で出資を受付中。
The Live-Time Closed Captioning System(LTCCS)
0 件のコメント:
コメントを投稿