日本MSと東大先端研、障害者活動支援ソリューションを共同開発
2012年10月5日 読売新聞
日本マイクロソフト(樋口泰行社長)と東京大学先端科学技術研究センター(先端研、中野義昭所長)は、10月3日、マイクロソフトの入力デバイス「Kinect for Windows」を応用し、重度の障害を抱える方の活動を支援するソリューション「OAK -Observation and Access with Kinect-」を共同で開発したと発表した。
「Kinect for Windows」は、音声認識やモーションセンサ、骨格追跡などの最新のテクノロジーを応用し、身ぶり手ぶりでの操作を実現するWindowsパソコン向けの入力デバイス。Windows用のソフトウェア開発キット「Kinect for Windows SDK」を用いて開発したソフトウェアと組み合わせて利用することで、コンピュータを直感的に操作することができる。
「OAK」は、脳性まひや脊髄性筋萎縮症など、重度の障害を抱える方の口の開閉や、手の動きなどの任意の動きを「Kinect for Windows センサー」で検出し、障害を抱える方が意思を表示したり、能動的に活動したりすることを支援するソリューション。
今後は、両者が共同で「OAK」を利用した「重度肢体不自由・重複障害のある子どものためのICT活動体験プログラム」を全国で実施。第一弾として、10月5~7日に、子どもの職業・社会体験型施設「キッザニア東京」(東京都江東区)で体験会を開催する。
「OAK」は、「Kinect for Windows センサー」、フィッティング、サポートをセットにしたパッケージとして、障害者を支援する技術製品を扱う会社からの販売を検討している。
(春之介のコメント)
ソフトウェアとセンサーを使って、従来では高価であった障がい児・者のパソコンを使っての日常支援向上を目指すもの。
OAKとKinectセンサーを使った実演デモも披露された。最初に紹介されたのは、エアスイッチと呼ばれる機能。空間の任意の位置にボタンを設定して、Kinect センサーが動きを検出するとON/OFFを切り替えることができる。
2番目の機能はフェイススイッチ。口の開閉や目の動き(まばたき)といった顔のわずかな動きをKinect センサーが検知して、その動きに対応したアクションを実行する。
最後は、モーションヒストリーと呼ばれる機能が紹介された。対象者の動きのログ(記録)を細かくとることができ、気づきにくかった些細な行動を明確に認識する方法として注目されている。(ファミ通.com)
上記のようなことが現在のところ可能であるという。
身体に直接センサーを張り付けたりするのではなく、カメラと赤外線センサーを使って、身体の動きを判断するシステムらしい。
・
DO-AT 重度障害児向けプログラム http://doit-japan.org/doat.html
<以下参考>
東大先端研と日本マイクロソフト、Kinect(TM) for Windows(R)を応用した障害者の活動支援ソリューション「OAK - Observation and Access with Kinect -」を共同開発
2012年10月3日
東京大学先端科学技術研究センター 日本マイクロソフト株式会社
<以下引用>
重い障害児をセンサーで支援
2012年10月6日 NHK
重い障害のある子どもたちを支援しようと、体の動きを読み取るセンサーを利用して家電製品の操作ができるシステムを東京大学などが開発し、子どもたちが参加して体験会が開かれました。
このシステムは、東京大学先端科学技術研究センターと日本マイクロソフトが共同で開発しました。カメラと赤外線で体の動きを読み取るセンサーを利用して、パソコン上で対象者の周りに仮想のスイッチを設定し、その方向に体を動かすと家電製品のスイッチが入る仕組みです。
また、目をつぶったり、口を開けたりするなどの特定の動作を読み取って、スイッチを入れることもできます。
東京都内で5日、システムの体験会が開かれ、全身の筋力が低下する難病の「脊髄性筋萎縮症」の子どもが指先やまぶたなどを動かして、照明をつけたり消したりする体験をしました。参加した子どもの父親は、「気持ちをことばにできない子どもにとって、自分の思いが動きにつながることは、大切な経験になったと思う」と話していました。
このシステムは、既存のセンサーとパソコンを利用するため、これまでより安い価格で提供できる見込みで、東京大学先端科学技術研究センターの中邑賢龍教授は「多くの人の意見を集めながらシステムを安定させ、重い障害があってもできることがあると感じられる社会にしたい」と話しています。
<以下追加引用> こちらは筑波大
ALS患者用PC操作装置を開発
2012年12月3日 NHK
全身の筋肉が動かなくなるALS=筋萎縮性側索硬化症の患者向けに、腕を動かそうとするときに皮膚の表面に流れるごく弱い電流を検出して、パソコンを操作する装置を筑波大学などの研究グループが開発しました。
筑波大学の山海嘉之(さんかいよしゆき)教授などの研究グループが開発した装置は、腕を動かそうとするときに運動神経から皮膚の表面に流れるごく弱い電流を検出し、パソコンの画面に表示された文字盤から文字を指定していくものです。
2日夜、東京で開かれたグループの会合で、重度のALSの患者が装置の実演を行いました。病気の進行で動かなくなった腕に電流を検出する電極の入ったシートを貼り、スタッフの指導で文字を指定する練習をすると、5分ほどで「これは夢と現実のかけはしです」という文章を入力することに成功しました。
ALSの患者が意思を伝えられるよう、これまで、指やあごのわずかな動きを利用したパソコンの操作技術が実用化されていますが、症状が進んだ患者は使えませんでした。患者や家族などで作る日本ALS協会の川口有美子理事は「体がまったく動かない患者でも意思疎通が図れる画期的な装置で、一刻も早く実用化してほしい」と話していました。
研究グループでは、今後、装置の改良を重ねることにしていて、山海教授は「患者会の協力を得て、1年以内に実用化にめどをつけたい」としています。
・
筑波大学大学院 情報工学科 山海研究室 http://sanlab.kz.tsukuba.ac.jp/