Sam's e-AT Lab

障害による困難さのある子どもたちの学習や生活を豊かにするためのe-AT(electronic and information technology based Assistive Technology=電子情報通信技術をベースにした支援技術)に関する話題

いつもお世話になっている金森 克浩さんがKintaのブログマジカルトイボックス第49回イベント〆切を延長しました。という記事を書かれましたので、2020年1月4日(土)〜5日(日)に開催されるマジカルトイボックス第49回イベントの案内を再掲します。
マジカル第49回イベント案内01
マジカル第49回イベント案内02
以下、概要を引用します。


THE MAGICAL TOY BOX (マジカルトイボックス) 第49回イベント

今回のテーマは『肢体不自由児のデキルことを活かすe-ATの活用について ~VOCA、iPad、Simple Technology、視線入力で何を目指すか~』 

近年、視線入力装置が安価に手に入るようになったことで、多くの人が注目してきました。また、iPad でマウスも使えるようになってきました。

ぜひそれらの支援機器で何をするのか、参加者の皆さんと考え たいと思います。

期 日:2020年1月4日(土)12:50~21:00、1月5日(日)8:30~12:00

会 場:国立オリンピック記念青少年総合センター(東京都渋谷区代々木神園町3-1、Tel 03-3467-7201)
※交通=新宿より小田急線で約5分。参宮橋駅から徒歩7分。

参加費 :19,060円(受講・資料代9,000円、宿泊費3,560円、材料代6,500円)

定 員:50名 申込み〆切は2019年12月15日(日)※当初12月1日が〆切日でしたが、延長されています

協 力:日本教育情報学会 AT研究会

参加申し込み:こくちーずプロhttps://www.kokuchpro.com/event/mtb49/)よりお申し込みください。

Samは、初日の2020年1月4日(土)13:00〜15:00の講演枠でお話しをさせていただく予定です。
その内容はコチラ
 ↓ ↓ ↓
講演資料
有料のイベントなので資料にモザイクをかけています。


1 時代は◯◯へ・・・の◯◯って何でしょう?

2 e-ATは△△を生きる上で必要なツール・・・の△△って何でしょう? 

(1) 肢体不自由教育とは▽▽・・・の▽▽って何でしょう? 

(2) デキルことを活かすという発想を具現化するために必要な◎◎って何でしょう?

(3) e-ATを活用することで目指すものって何でしょう?

Samの答えは当日のお楽しみ...ということでご容赦ください。

なお、イベントの案内チラシはコチラからダウンロードできますので、ご利用ください。
 ↓ ↓ ↓
案内チラシ(PDF)のダウンロード先へ
このエントリーをはてなブックマークに追加

いつもお世話になっている島根大学の伊藤 史人さんが、2019年12月1日(日)に開催された第14回島根県作業療法学会で講演されたのを機に、子どもたちの可能性を信じよう~テクノロジー活用によるアプローチ~というタイトルの動画をYouTubeにアップされています。
 ↓ ↓ ↓
動画の中の字幕
動画に登場している子どもたちは、そのほとんどが「分かっていない、見えていない」といった診断・評価をされている子どもたちです。

障害のある子どもたちの持つ力を評価する検査は多々あります。
それらは何らかの表出や操作ができる子どもたちの力を評価することはできますが、表出が分かりづらく何らかの操作も困難な「最重度・重複障害児」とか「超重症心身障害児」といった言葉で診断・評価されている子どもたちが持っている力を正確に評価することはできないと思います。

そういう子どもたちの中には「目の前にある画面を見ると画像や音響が変化するという因果関係」に気づく子どもたちがいます。
そのことを周囲の人に知らしめてくれるのが、EyeMoT 3DEyeMoT 2DといったWindowsPC用アプリに視線で入力することだと思います。
それを訴えているのが子どもたちの可能性を信じよう~テクノロジー活用によるアプローチ~です。

こちらのYouTube動画と併せて是非ご覧ください。
 ↓ ↓ ↓
Improving the Lives of Individuals with Complex Disabilities through Assistive Technology(アシスティブテクノロジーを通して重複障害者の生活を向上させる)
カイくんのAT活用
こちらは、上記Improving the Lives of Individuals with Complex Disabilities through Assistive Technologyに登場するMichelさんとKaiくんの動画です。
 ↓ ↓ ↓





これらの動画が契機となって、一人でも多くの子どもたちの活動が拡がることを願っています。
このエントリーをはてなブックマークに追加

2019年12月5日のブログの続編です。

秋合宿2019 in 沖縄〈ICT虎の穴 5th〉の2日目についてザックリと紹介します。
2日目の内容
Samが担当したのは、1日目と同じく金森 克浩さんと一緒に視線入力コースです。

1日目の復習を兼ねて、Tobiiのドライバでキャリブレーションすることからスタート。
その後、視線マウスアプリmiyasuku EyeConLT2を起動してマウスポインターを視線で動かす練習と設定方法について紹介しました。
視線操作設定Window
その際、視線入力用の知育アプリSensory Eye-FXを試してもらいました。

Sensory Eye-FX121

miyasuku EyeConLT2は、マウスポインターを視線で動かして注視することによって左クリックができる機能がありますが、ドラッグ・右クリック・ダブルクリックをするにはmiyasuku EyeConMouseが必要になりますので、その紹介をして操作方法を演習してもらいました。

miyasuku EyeConLT2については、2019年9月17日のブログ視線マウスアプリmiyasuku EyeConLT2は細かい設定ができますを参考にしてください。

また、1日目に演習したEyeMoT 3Dシリーズには、オンラインで対戦することができるゲームアプリもありますので、その中の一つEyeMoT 3DX【対戦ぬりえ】を試してもらいました。
EyeMoT 3DXスクラッチオンラインゲームをする受講者
昼食休憩をはさんだ後、固定具を利用したフィッティングの実際をデモした後、受講者に支援者役と当事者役になってもらい、ポータブルセットを用いたフィッティングの演習をしてもらいました。
 ↓ ↓ ↓
ポータブルセットを使ったフィッティング
さらに、miyasukuスタンドを用いたフィッティングの演習をしてもらいました。
その際、現地スタッフの澤岻 圭祐さんと伊佐 真一さんに子ども役になってもらい、車いすに座った状態でのフィッティングを練習しました。
 ↓ ↓ ↓
miyasukuスタンドを使ったフィッティング
1日目の夕食/懇親会の時、複数の参加者から「自分が参加していないコースの内容にも興味があるので、担当の講師からお話や機器等の紹介をしてもらいたい。」というリクエストが寄せられましたので、2日目の午後は各講師から担当したコースの内容やそれに伴う奥義ネタを話すことに...

金森 克浩さんの話題提供タイムでは、SMA当事者であるTAさんに滋賀県からビデオ通話で登場してもらいました。
TAさんは、レッツ・チャット、iPad、Windowsパソコンを目的に応じて使い分けておられるICT活用の達人です。
レッツ・チャットとiPadにはPPSスイッチで入力し、Windowsパソコンにはmiyasuku EyeConSWと視線追跡装置Tobii Eye Tracker 4Cで視線入力しておられます。

ビデオ通話越しにレッツ・チャットで自己紹介をしてもらった後、各機器を操作している様子を紹介していただき、AIスピーカーで環境制御している様子を披露していただきました。
金森さんの話にライブ出演してくれた田中あかりさん
Samの話題提供では、参加者全員がiPadを持参しておられましたので(視線入力コースの方もiPad持参でメモをとったり映像で記録しておられました)、パソコンでもiPadでも利用できるWebアプリGingerTiger.netを紹介して、いくつかの知育アプリを試してもらいました。

新谷 洋介さんからは、聴覚障害のある子どもたちへのICT活用の実際を、韓 星民さんからは、視覚障害のある子どもたちへのICT活用の実際を紹介していただきました。
新谷さんの話題提供
主にタブレットコースを担当していただいた高松 崇さんと小川 修史さんの話題提供タイムは、コミュニケーションに困難さのある子どもたちへのiCT活用について二人組でのトークショー。
軽妙なやり取りはまるで吉本芸人の漫才を見ているようでしたが、「子どもたちの特性を活かそう」という発想の話は魅力的でグイグイ引き込まれます。
小川さんと高松さんによるトークショー
小川 修史さんの「記憶をメモに残す」ためにiPhone/iPadの音声アシスタント機能Siriを使うワザ(Hey Siriと呼びかけてから音声で必要なアプリに入力する)は目からウロコのアイディアで参考になりました。

高松 崇さんがサポートしている京都市の小学生はADHDがあり、授業中に教室をウロウロするので担任教師が困っているという話題。
「教師が困っている以上に子どもが困っている。その子どもも学びたがっている。」という視点をもつことの大切さと、その行動を周囲の人たちに認めてもらうためにどのようにしたら良いかということを考えるのが教育のプロであるという耳の痛い話題でしたが、その子の特性(授業中に教室をウロウロする)に着目して、板書してる友達のノートを机間巡視しながらiPadで撮って先生に見せるという係に任命したところ、授業の内容をいつの間にか理解し、学習が遅れている友達に気づいて「先生!この子困っているよ」と画像を見せながら教えてくれて友達から感謝されるようになったという事例を紹介してくださいました。
講師陣の紹介
現地スタッフの紹介
一泊二日で外出無し観光無しというハードスケジュールの秋合宿2019 in 沖縄〈ICT虎の穴 5th〉でしたが、参加された皆さんにとって実りのある二日間だったのではないかと思っています。
ホテル内の案内掲示
ユインチホテル外観
この場を借りて、参加されたすべての皆さんに感謝申し上げます。

なお、ICT虎の穴は来年以降スタイルを変えて実施されるようです。
詳細が分かれば、またお知らせしたいと思っています。
このエントリーをはてなブックマークに追加

現任校では、いわゆる重度・重複障害と診断・評価されている子どもたちが因果関係を学んだり、意思を発信したりするツールとして視線入力を活用しています。

視線入力に必要な機材は下写真のようにセットして、各教室に運べるようにして主に自立活動の授業で活用しています。
視線入力セット
視線入力で重要なことは、Eye Trackerを貼り付けたディスプレイをしっかり固定することです。
現任校では、見え方に困難さのある子どもたちが多いので、見えやすさを担保するために23.8インチのディスプレイを固定用スタンドに取り付けています。

昨年度までは、川端鉄工所㈱さんのパソッテルを使っていましたが、高さに制限があるため、車いす座位で顔が下向きになる子どもは使えませんでした。
今年度、株式会社ユニコーンさんからmiyasukuスタンドが発売されるようになり、2台を公費で購入して活用しています。

miyasukuスタンドの特徴として、ディスプレイの位置をパソッテルよりも高く/低く設定できることが挙げられます。
特別支援学校(肢体不自由)には、痙直型脳性まひによる肢体不自由児が在籍しています。
その中には、座位姿勢はとれるものの、背中側の筋肉の緊張が弱く、逆にお腹側の筋肉の緊張が強いというアンバランスさのある子どもがいます。

そういう子どもが車いすなどに座っていざ学習しようとした時、教室の黒板やホワイトボードを見ようとするとアゴを突き出して頸に負担がかかりがちです。
そのような子どもが視線入力する際、低い位置にディスプレイが固定できると便利です。

それを可能にしてくれるのがmiyasukuスタンドです。
 ↓ ↓ ↓
miyasukuスタンドの使用例ー側臥位で使う
 ↑    ↑    ↑
低いベッドの上で横向き(右下側臥位)になって視線入力する小学生
miyasukuスタンドの使用例
 ↑ ↑ ↑
後頸部に負担がかからなくなり楽に視線入力ができるようになったと喜んでいた中学生

視線入力用の固定スタンドをご検討の方にはmiyasukuスタンドをオススメします。
このエントリーをはてなブックマークに追加

atacLabさんのAACオンデマンド第10弾が公開されました。

タイトルは最重度重複障害の人とのコミュニケーションです。

東京大学先端科学技術研究センターの中邑 賢龍さんが、「外界からの働きかけに対して反応が分かりづらい最重度の肢体不自由と知的障害を合併している人とのコミュニケーション」について、AAC(=Augmentative and Alternative Communication:拡大代替コミュニケーション)の観点から解説しておられます。

この動画で想定している人たちは、以下のような状況の人たちです。


◯最重度の肢体不自由と知的障害を合併している

◯人工呼吸器装着や経管栄養補給など医療的ケアを受けているケースも含む

◯発声や体の動きもわずかにあるが観察が難しい

◯語りかけに対する反応性が乏しい

Samが勤務している学校にも上記のような状況の子ども体が多数在籍していますので、中邑 賢龍さんが動画の中で話しておられることには参考になる部分が多々あります。

メモのため、プレゼンで表示された文言をもとに記録しておきます。


【ポイント】
◯彼らはどのような外界の変化に気づいていますか?→定位反応を確認する
・指しゃぶりなど自己刺激を楽しむ発達レベルの子どもも多い
・音、光、風、匂い、熱、振動などに対して生じる定位反応を確認する
・感覚障害や麻痺などもあり、定位反応が起こりにくい感覚や部位がある
・彼らが感じる刺激を用いてコミュニケーションを行う

◯支援者もどのように関わっていいか分からない→結果として彼らに対する一方的な働きかけになってしまいがち
・音楽を聴かせ、ビデオを見せ、振動や揺れを与えるなど刺激を与えて、発達を促進させようとする療育活動が中心
・時には支援者が勝手に作りあげたコミュニケーションのように感じることもある
・子どもの意図と違う活動も生じうる
 →受動的な自己中心的な世界から抜け出せない

◯能動的な発信に対して人や外界からのフィードバックがない(体を動かしてもフィードバックを得にくかったり受容や拒否の反応さえ支援者が気づきにくい)→学習性無力感(Learned Helplessness)に陥り発信行動がさらに減る

◯長時間観察してみたら能動性が見つかるかも→ICTを活用し反応を可視化しないと分かりにくい

◯能動的反応に対するフィードバックが少なく因果関係理解の成立が遅れているかも→因果関係の成立が必要(センサーやスイッチを用いたおもちゃ遊び)

【まとめ】
◯最重度重複障害の人を黙ってゆっくり観察することからコミュニケーションの手がかりがつかめる

◯彼らが感じる刺激に対し、どのような反応があるかを観察し適切にフィードバックを返し、因果関係理解を促進することが重要

◯人の能力ではわずかな動きを長時間観察することは難しくICTの活用が必須となる

動画の中では、ICTを活用することによって外界からの働きかけに対する反応や能動的反応を可視化することの重要性が繰り返し語られています。

そのための方策として、iDevicesアプリiOAKの活用が事例とともに紹介されています。
iOAKは、iDevicesのカメラを利用して人の動いた部分をその動きの頻度に応じて紫色から赤色に着色して表示する「モーションヒストリー」機能を備えていますので、動きの随意性や支援者からの効果的な関わりを探ることが期待できます。
iDevicesアプリiOAKのアイコン
動画の中では、「モーションヒストリー」機能に加え、Windows版OAK Camには搭載されている「エアスイッチ」機能も紹介されています。
現時点で配信されているiDevicesアプリiOAK(バージョン1.1.2)には「エアスイッチ」機能はありませんが、今後のアップデートで追加されるようになると嬉しいですね。
今日からATACカンファレンス2019京都が開催されます。
その中で何らかのアナウンスがあるかもしれませんね。

今回のYouTube動画は、黙って観るコミュニケーションという書籍の中で触れてある内容と合致する部分が多いので、併せて参考にしてみてください。

atacLabさんがアップされた過去9本の動画は、以下のブログ記事で紹介しています。

2019年4月16日のブログ〜【必見】支援技術とは...を語るYouTube動画
2019年5月1日のブログ〜【必見】AACとは...を語るYouTube動画
2019年5月30日のブログ〜【必見】障害の理解...を語るYouTube動画
2019年6月29日のブログ〜【必見】支援者として必要なコミュニケーションの基礎知識...を語るYouTube動画
2019年8月1日のブログ〜【必見】言語障害はあるが言語理解はあり指差しや視線が使える人とのコミュニケーション...を語るYouTube動画
2019年8月30日のブログ〜【必見】Yes/Noコミュニケーション...を語るYouTube動画
2019年10月4日のブログ〜【必見】知的障害・自閉症のある人とのコミュニケーション...を語るYouTube動画
2019年11月1日のブログ〜【必見】重度知的障害のある人とのコミュニケーション...を語るYouTube動画
2019年11月29日のブログ〜【必見】重度重複障害のある人とのコミュニケーション...を語るYouTube動画

いずれも、障害者支援に携わっておられる方にとっては参考になると思います。
ぜひ一度ご覧になってみてください。
このエントリーをはてなブックマークに追加

↑このページのトップヘ