おはようございます。後藤です。
米Googleは5月7日、年次開発者会議「Google I/O 2019」の基調講演で、ALS(筋萎縮性側索硬化症)やパーキンソン病の患者など、発話が困難な人をAIでサポートするプロジェクト「Project Euphonia」を発表した。
ALS患者をサポートする米国の非営利団体ALS Therapy Development Institute(ALS TDI)やALS Residence Initiative(ALSRI)の協力の下、患者が一定のテキストを読み上げる音声データを収集し、発話障害のある人の発話を正しく聞き取るAIアルゴリズムの訓練に使っている。
プロジェクトに協力しているALS患者のスティーブ・サイリング氏は、Googleが作った機械学習モデル訓練用ツールを使って、顔の表情でコミュニケートする方法をAIに教えている。
サイリング氏はこの方法で、テレビでスポーツ観戦中、ひいきのチームがゴールを決めたらホーンを鳴らしたり、部屋の照明を消したりすることに成功している。
一般的な音声AI同様、データが多いほどシステムの精度は上がる。Googleおよび協力団体は、障害を持つ人々にデータ提供を呼び掛けている。
Project Euphoniaは、Googleが長年従事しているアクセシビリティの取り組みの一環で、昨年のGoogle I/Oでは、Gboardでのモールス信号入力機能や目の不自由な人用の音声アプリ「Lookout」を発表したり、
今年の2月には、耳の聞こえない人のための、会話をリアルタイムでテキストに変換するアプリ「音声文字変換」を発表しています。
今後、様々なAIに関する仕組みが増えてくると思うので、当社のサービスに繋げられる情報を見つけていきたいと思います。
今日も目標を達成させる為に頑張りましょう。
明日は大村さんお願いします。