2015年11月17日火曜日

メガネに装着するウェアラブルで聴覚障害者をサポート!リアルタイムの会話をテキストで表示 (mixiニュースより引用)

引用元:
http://news.mixi.jp/view_news.pl?id=3716600&media_id=160
2015年11月17日 15:01  Techable
Techable
写真写真
耳が不自由な人向けに、会議中の発話をリアルタイムに識別する「Transcense」のようなアプリをはじめ、最新のテクノロジーを活用し、体の不自由な人をサポートするツールを開発しようという試みも、このところ見られるようになった。
・聴覚障害者をサポートするツール
「The Live-Time Closed Captioning System(LTCCS)」もそんな1つで、もともとGoogle Glassのアイデアをもとに、開発者の1人Daniil Frants氏が着想したウェアラブルツールだ。

「LTCCS」は、メガネに装着するディスプレイ、マイクロコンピューター、高性能マイクの3つのパーツで構成されている。
・ディスプレイに、キャッチした会話をテキスト表示
ディスプレイはメガネのフレーム部分にクリップして装着し、マイクがキャッチした周辺の会話を、キャプションとして随時表示する。ユーザーは、テキストで周囲の会話を認識できるようになる。

高性能なマイクは、発話された言葉をキャッチ、分析し、正確にテキストに変換する。たとえ、周辺がガヤガヤとしていたとしても機能するというからすばらしい。

マイクは洋服などの襟元にクリップするタイプになっていて、小型なので不用意に目立たない。

Raspberry Piで動作するマイクロコンピューターは、軽くてスマートフォンと同サイズの大きさ。マイクがキャッチした発話は、リアルタイムでスムーズに解析、処理される。小型で軽量なので、ポケットや財布の中に入れて持ち歩ける。
・Indiegogoで出資受付中
聴覚障害者が日々の生活を送りやすいようサポートする「LTCCS」は、現在、クラウドファンディング「Indiegogo」で出資を受付中。

The Live-Time Closed Captioning System(LTCCS)

0 コメント:

コメントを投稿