こんにちは、木原です。 第54回目の神楽坂プログラミング教室は、11月に発表された新機能「micro:bit CreateAI」を使って遊んでみました(-☌ᴗ⚬-)
micro:bit CreateAI は、micro:bit に搭載された加速度センサーを使った機械学習モデルを作って、micro:bit のプロジェクトに組み込むことができる機能です。例えば、今までだと「バイバイ」「拍手」のジェスチャーを区別するプログラムを作ることは難しかったのですが、micro:bit CreateAI を使えば、さささのさ~で簡単に作ることができます。
まず、AI、人工知能とは?今まで、どんな人工知能があったのか、実際に人工知能が解いた問題を体験してもらいつつ歴史をふりかえりました。
さて、いよいよ本題の micro:bit CreateAI です。動きを学習させたいものに micro:bit を装着します。まずは腕に装着!micro:bit と電池ボックスを専用のケースに固定し、マジックバンドを使って装着します。
ちなみに、こちらのケースセットは、micro:bit用ウェアラブルキットとして2025年2月上旬に発売予定です。ワークショップでは、試作品の使い心地を子供たちに試してもらいました。「(電池ボックスの)スイッチが押しにくい~」と貴重な意見をもらえたので、現在、改良中です!
さて、準備できたので、いよいよ、機械学習モデルの作成です。判別したいジェスチャーの加速度センサーのデータを集めて、学習させてモデルを作り、モデルの精度をチェック。精度に問題がなかったら、モデルを使ったプログラムを作ります。
予想以上にデータ集めに熱中してくれました。とりあえず、「バイバイ」「拍手」「なにもしない」のデータを集めてもらっていたのですが、気がついたら「パンチ」「速い拍手」「ひじをつく」などなど、それぞれいろんなジェスチャーを集めていました。
ある子は、10種類のジェスチャーを認識させていて、しかも「全ジェスチャーの確信度が100%になるまで帰らない!」といって工夫してデータを集めていました。例えば「バイバイ」の場合は腕を垂直に立てている状態の「バイバイ」だけではなく、少し前に倒した状態の「バイバイ」など、さまざまな態勢のデータを収集していました。ビックリ!
作ったモデルの活用方法をじっくり考える時間は取れなかったのですが、データを収集している様子を見ていた保護者の方からは、「コントローラーを足に装着する筋トレゲームと同じだね」といった声や「癖を検出したらアラート出すプログラムを作ってよ~」などが出てきていました。
「めんどくさいー」と言いながら一生懸命データを集めたりと、こだわりを持って取り組んでいました。私は、ついつい機械学習モデルの活用先にばかり目がいってしまうのですが(もちろんそれも大事)、モデルを作るという段階で各自工夫して取り組んでいる様子を見て、考えさせられるものがありました。生活の中で似たような機能を見かけたときに「これも、あーやって作ってるのかなぁ」と考えることができるのは仕組みを実際に体験したからこそだと思うし、すべてが学びにつながるんだなぁと改めてしみじみ感じました。
次回、1月の神楽坂プログラミング教室は、参加者さんから要望が入った「アレ」になりそうです。最終決定したら告知しますので、お楽しみに(-☌ᴗ⚬-)
おまけ話
micro:bit CreateAI の活用例として、ぬいぐるみの首に micro:bit を装着して、ぬいぐるみを「持ち上げた」「ゆさぶった」の動きを検出&音を出す作品を見せたら... かわいいかわいいと、気に入ってもらえました。お気に入りのぬいぐるみがリアクションを返してくれるって嬉しいですよね。「なでなでしたら鳴く機能を作りたい~」と言ってる子もいました(-☌ᴗ⚬-)