様々なロボットを用いた授業支援①【4年生 理科】

昨年7月(半年前)に、4年生の探究の授業で、

Pepper(のぞぺーくん)がファシリテートした

エネルギーについての学習の様子を

こちらのブログでも紹介しました。

 

この取り組みは、ユーザがAIアプリケーションを構築する

プラットフォームを開発するプロジェクトの1例として、

学校現場でのロボット授業の実践を試みています。

その中で、のぞみ小としても、

ロボットが活躍できる領域、

人間だからこそできる領域が何なのか、

人間やロボットの特性も考えながら、

子どもたちが大人になって活躍する

「AI共生時代」に必要な力を身につけることにもつながります。

同時に、のぞみ小独自の探究的な学びに

こうしたAIアプリケーションが利用できる可能性についても

模索できるので、様々な効果が期待できる授業実践です。

 

今回は、ちょっと内容を先取りして、4年生ですが、

5年生の「ふりこのきまり」のところを扱いました。

 

前回までと類似点

・Pepper(のぞぺーくん)による進行

前回からの進化点

・表情が変わるロボット(のぞハットさん)による

 子どもたちの話を聞く体制(集中度)チェック

 → 集中していれば、次に進行させる

・子どもたちの議論の内容を音声で記録を取り、

 そのときのキーワードを後の議論で活用する

 

このような進化点の背景は、マイクやカメラを活用し、

子どもたちの会話や様子を用いて、次の展開を作る

という、前回までのロボットからの一方向的な働きかけ

(前回は、双方向のやり取りはのぞぺーくんの音声認識程度)

からの発展があります。

 

記録した子どもたちの様子から、それを表情を用いて

子どもたちにフィードバックしたり、議論などの音声情報を

文字にして子どもたちの対話のリフレクションに活用したり、

子どもたちの学びを深めるためのロボット支援として、

今回は前回を発展させた形を作ることができました。

 

子どもたちも、表情が変わるロボットや、

カメラで自分たちの顔の向きを認識して

その情報がロボットの動きに活かされているというような

仕組みをしることで、より一層興味を持っていたようです。

 

今日の内容から、明日、自分たちで実験をデザインして、

もう一度、ロボットを用いた授業になります。

次の授業がまた、楽しみですね!