様々なロボットを用いた授業支援①【4年生 理科】
昨年7月(半年前)に、4年生の探究の授業で、
Pepper(のぞぺーくん)がファシリテートした
エネルギーについての学習の様子を
こちらのブログでも紹介しました。
この取り組みは、ユーザがAIアプリケーションを構築する
プラットフォームを開発するプロジェクトの1例として、
学校現場でのロボット授業の実践を試みています。
その中で、のぞみ小としても、
ロボットが活躍できる領域、
人間だからこそできる領域が何なのか、
人間やロボットの特性も考えながら、
子どもたちが大人になって活躍する
「AI共生時代」に必要な力を身につけることにもつながります。
同時に、のぞみ小独自の探究的な学びに
こうしたAIアプリケーションが利用できる可能性についても
模索できるので、様々な効果が期待できる授業実践です。
今回は、ちょっと内容を先取りして、4年生ですが、
5年生の「ふりこのきまり」のところを扱いました。
前回までと類似点
・Pepper(のぞぺーくん)による進行
前回からの進化点
・表情が変わるロボット(のぞハットさん)による
子どもたちの話を聞く体制(集中度)チェック
→ 集中していれば、次に進行させる
・子どもたちの議論の内容を音声で記録を取り、
そのときのキーワードを後の議論で活用する
このような進化点の背景は、マイクやカメラを活用し、
子どもたちの会話や様子を用いて、次の展開を作る
という、前回までのロボットからの一方向的な働きかけ
(前回は、双方向のやり取りはのぞぺーくんの音声認識程度)
からの発展があります。
記録した子どもたちの様子から、それを表情を用いて
子どもたちにフィードバックしたり、議論などの音声情報を
文字にして子どもたちの対話のリフレクションに活用したり、
子どもたちの学びを深めるためのロボット支援として、
今回は前回を発展させた形を作ることができました。
子どもたちも、表情が変わるロボットや、
カメラで自分たちの顔の向きを認識して
その情報がロボットの動きに活かされているというような
仕組みをしることで、より一層興味を持っていたようです。
今日の内容から、明日、自分たちで実験をデザインして、
もう一度、ロボットを用いた授業になります。
次の授業がまた、楽しみですね!